Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/google-cloud-platform/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google cloud platform 谷歌云上少于20个单词的NLP_Google Cloud Platform_Nlp - Fatal编程技术网

Google cloud platform 谷歌云上少于20个单词的NLP

Google cloud platform 谷歌云上少于20个单词的NLP,google-cloud-platform,nlp,Google Cloud Platform,Nlp,根据本文档:classifyText方法至少需要20个单词 如果我发送的内容少于20字,无论内容多么清晰,我都会收到: Invalid text content: too few tokens (words) to process. 正在寻找一种在不太破坏NLP的情况下强制实施的方法。是否有中性向量词可以附加到短短语中,从而允许classifyText以任何方式进行处理 前 问题是无论你发送什么样的文本,你都会增加偏见 您唯一的机会是用空单词填充字符串,直到达到最小字数限制,这些单词在进入神

根据本文档:classifyText方法至少需要20个单词

如果我发送的内容少于20字,无论内容多么清晰,我都会收到:

Invalid text content: too few tokens (words) to process.
正在寻找一种在不太破坏NLP的情况下强制实施的方法。是否有中性向量词可以附加到短短语中,从而允许classifyText以任何方式进行处理


问题是无论你发送什么样的文本,你都会增加偏见

您唯一的机会是用空单词填充字符串,直到达到最小字数限制,这些单词在进入神经网络之前将被预处理器和标记器过滤掉

我会尝试在句子末尾添加一个字符串后缀,其中包含如下的stopwords:

document.content += ". and ourselves as herserf for each all above into through nor me and then by doing"
为什么要结束?因为通常文本在开头有更多的信息

如果谷歌不在幕后过滤停止语(我对此表示怀疑),这只会在网络没有焦点或注意力的地方增加白噪音

请记住:当您有足够的单词时,不要添加此字符串,因为在筛选之前,您需要支付1K个字符块的费用

我还想将该字符串后缀添加到训练/测试/验证集中少于20个单词的sencences中,看看它是如何工作的。网络应该学会忽略整个句子

document.content += ". and ourselves as herserf for each all above into through nor me and then by doing"