ICode9

精准搜索请尝试: 精确搜索
  • python中的Spacy语言模型安装从_mklinit返回ImportError(ImportError:DLL加载失败:找不到指定的模块.)2019-10-07 08:55:28

    我目前正在尝试在我的系统中设置spaCy.下载模块时,没有显示错误.但是,在下载语言模型(特别是英语版)时,我收到了一个错误.输出如下: Traceback (most recent call last): File "C:\ProgramData\Anaconda3\lib\runpy.py", line 183, in _run_module_as_main mod_name, mod_spe

  • python – spacy lemmatizer如何工作?2019-10-05 09:55:13

    对于词形还原,spacy有一个lists of words:形容词,副词,动词……还有例外列表:adverbs_irreg …对于常规词,有一组rules 我们以“更广泛”这个词为例 因为它是一个形容词,所以词典化的规则应该从这个列表中取出: ADJECTIVE_RULES = [ ["er", ""], ["est", ""], ["er", "e"

  • python – 与spacy的名词短语2019-09-30 07:55:01

    如何使用spacy从文本中提取名词短语? 我不是指词性标签.在文档中,我找不到任何关于名词短语或常规解析树的内容.解决方法:如果你想要基本的NP,即没有协调的NP,介词短语或相关子句,你可以在Doc和Span对象上使用noun_chunks迭代器: >>> from spacy.en import English >>> nlp = Englis

  • python – 当我尝试安装spaCy英语语言模型时,我得到CERTIFICATE_VERIFY_FAILED2019-09-28 21:57:42

    我通过Anaconda在Python 3.5.2上运行OS X El Capitan并且拥有spaCy 0.101.0. 我正在尝试使用python -m spacy.en.download安装spaCy英语语言模型.但是当我这样做时,我收到一个错误,上面写着urllib.error.URLError:< urlopen错误[SSL:CERTIFICATE_VERIFY_FAILED]证书验证失败(_ssl.c:64

  • python – ImportError:没有名为’spacy.en’的模块2019-09-26 03:58:05

    我正在开发一个使用Spacy的代码库.我安装spacy使用: sudo pip3 install spacy 接着 sudo python3 -m spacy download en 在最后一个命令结束时,我收到一条消息: Linking successful /home/rayabhik/.local/lib/python3.5/site-packages/en_core_web_sm --> /home/rayabhik/.

  • 如何将Python自然语言处理速度提升100倍:用spaCy/Cython加速NLP2019-08-02 17:01:46

    AI前线导读:去年我们发布了基于 Python 的共指解析包之后,社区反馈非常热烈,大家开始在各式应用中使用它,有些应用场景与我们原来的对话用例非常不一样。 之后我们发现,虽然这个解析包的性能对于对话消息来说是足够的,但涉及到大篇幅新闻文章时就远远不够了。 更多干货内容请关注

  • python – Spacy PhraseMatcher值错误模式长度(11)> = phrase_matcher.max_length(10)2019-07-31 05:07:27

    初始化带有术语列表的新PhraseMatcher时出现以下错误: ValueError: Pattern length (11) >= phrase_matcher.max_length (10). Length can be set on initialization, up to 10. patterns = [nlp(org) for org in fields] self.matcher = PhraseMatcher(nlp.vocab)

  • python – spacy用语料库中的数据创建新的语言模型2019-07-24 10:58:59

    我想在spaCy中创建一个新的语言模型(卢森堡语),但我对如何做到这一点很困惑. 我遵循instructions on their website并做了与this post类似的事情.但我不明白的是,如何添加像词汇或wordvectors的数据. (例如“填写”语言模板) 我知道有一些dev tools用于相同的操作,但是他们的执行记

  • python – Spacy:保存已解析的模型2019-07-11 06:57:22

    我正在使用Spacy,它是一个Python自然语言处理库,将原始文本解析为这种更复杂的面向对象格式,更具体地说是依赖树. 上面的操作需要一段时间才能执行:我需要加载一个非常昂贵的模型,然后解析大量的文本.我宁愿在后续执行中节省一些时间,以便在完成初始解析后更快地迭代处理数据. 如何

  • 库指的是错误的Python版本2019-07-10 15:06:00

    我在我的机器上安装了多个pythons,2.7,3.5,3.6等,我安装了名为spacy的库. 看起来这个库一直在引用旧版本的python 3.5.在/usr/local/lib/python3.5/dist-packages. Python 3.6.5 (default, Mar 29 2018, 03:28:50) [GCC 5.4.0 20160609] on linux Type "help", "copyright", "cre

  • python – 将形容词转换为副词2019-07-05 17:55:54

    有谁知道如何将英文形容词转换为各自的副词? Python是理想的,但实际上任何程序化方法都会很棒. 我试过pattern.en,nltk wordnet和spacy无济于事. 将副词转换为根形容词形式是没有问题的.我正在使用SO解决方案here. 我想要的是走另一条路.从形容词到副词. Here is nltk wordnet code

  • 适用于Python的轻量级NLP框架2019-07-01 20:43:09

    我现在正在使用spaCy来确定两个字符串之间的语义相似性.它运行良好,只需要几行代码,所有的工作都在幕后完成: >>> import spacy >>> nlp = spacy.load('en') >>> nlp('string').similarity(nlp('another string')) 0.796 但是它需要大约600mb的模块数据.因为我在Heroku上主持这远

  • python – 自定义信息提取的最佳方法(NER)2019-06-07 18:42:51

    我正在尝试从文本blob(NER / IE)中提取位置,并尝试了许多解决方案,这些解决方案都太过于无用了spacy,斯坦福等等. 我的数据集确实只有80-90%准确(spacy就像70%),我遇到的另一个问题是没有概率对这些实体意味着什么,所以我不知道自信而且不能继续因此. 我尝试了一种超级天真的方法,将

  • python – 使用spacy西班牙语Tokenizer2019-05-27 15:46:23

    我总是使用英语或德语的spacy库. 要加载库,我使用了以下代码: import spacy nlp = spacy.load('en') 我想使用西班牙语tokeniser,但我不知道怎么做,因为spacy没有西班牙语模型. 我试过这个 python -m spacy download es 然后: nlp = spacy.load('es') 但显然没有任何成功. 有人

  • 如何在spaCy API中使用SyntaxNet解析器/标记器?2019-05-19 12:46:37

    我一直在使用spaCy Python包来解析和标记文本,并使用生成的依赖树和其他属性来推导出意义.现在我想使用SyntaxNet的Parsey McParseface进行解析和依赖标记(这似乎更好),但我想继续使用spaCy API,因为它很容易使用,并且它做了许多Parsey没有做的事情. SyntaxNet以CoNLL格式输出POS标

  • spaCy 学习 第二篇:语言模型2019-05-13 15:53:35

    spaCy处理文本的过程是模块化的,当调用nlp处理文本时,spaCy首先将文本标记化以生成Doc对象,然后,依次在几个不同的组件中处理Doc,这也称为处理管道。语言模型默认的处理管道依次是:tagger、parser、ner等,每个管道组件返回已处理的Doc,然后将其传递给下一个组件。 一,加载语言模型 spaCy使

  • 比较两个生产级NLP库:训练Spark-NLP和spaCy的管道2019-02-20 08:54:32

    编者注:文中超链接如果不能访问可以点击“阅读原文”访问本文原页面;可以参考2018年5月21-24日伦敦Strata数据会议上的教学辅导课《使用spaCy和Spark NLP进行自然语言理解》。本系列博客的目地是通过使用两个领先的生产级语言处理库(John Snow Labs的Apache Spark NLP和Explosion

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有