百度文小言接入DeepSeek
搜索结果SEO优化
------------
- 摘 要 -
文小言APP文心一言网页版(文心大模型)接入DS(DeepSeek满血版大模型)影响百度搜索AI搜索AI智能搜索结果关键词排名优化SEO策略、正面负面舆情口碑数据监测等。①问题指令②下拉框③推理问题过程④问题总结⑤输出解决方案⑥总结问题核心⑦内容鼓励⑧推理内容引导⑨思考理解问题等。
------------
- 目 录 -
1. 正确科学AI作用、价值和目的
2. AI模型数量22个
3. AI工具数量28个
4. AI分类2种
5. 接入Deepseek效果
6. AI搜索SEO落地部署策略
7. 百度AI文小言分类
8. 文小言SEO优化效果
9. AI文小言推理规则
10. 文小言大模型规则
11. 文小言内容源&逻辑
12. 文小言SEO和传统SEO、公关传播的区别:
13. 不同企业的AI市场应用&动态
14. AI搜索SEOKPI科学判断&认知
15. 文小言优化KPI设定
16. 文小言优化KPI验收方法如下:
17. 文小言AI搜索优化落地执行
18. 文小言异常处理,可预测的常见问题
19. 文小言法律法规
20. 文小言预判
21. 文小言隐私政策
22. 免责声明
------------
一 . 正确科学认知AI作用
① 作用:
AI核心是解决问题(复杂问题的查询检索、对问题进行推理),帮你完成一个任务(完成一个创作、输出一个解决方案),不仅仅是搜索(可以当成智能解决复杂问题的搜索引擎,和传统标准的搜索引擎不一样)
② 价值:提升效率
③ 目的:智能辅助决策
PS. 百度叫AI问答,搜狗叫AI问答,360叫Ai问答、微博叫AI智搜、微信叫AI问答、小红书叫AI总结经验,抖音叫Ai搜索,头条叫AI搜索,知乎叫直答、B站叫AI智能问答、快手叫AI智能搜索
------------
二 . AI模型数量23个
常用主流的AI大模型有:23个
分别是:深度求索DeepSeek-V3、深度求索DeepSeek-R1、月之暗面Kimi大模型、百度文心大模型、搜狗混元大模型、360多模型集成、微博知微大模型和、微博通义大模型、微信混元大模型、字节豆包大模型、知乎知海图AI大模型、小红书MiniMax大模型、小红书珠玑大模型、B站bilibili index大模型、快手快意大模型、快手可灵大模型、红色蝴蝶科技Claude和通义千问模型、MiniMaxMiniMax大模型、智谱AIGLM-4大模型、昆仑万维GPT4大模型、阿里巴巴通义千问大模型、作业帮银河大模型、科大讯飞讯飞星火大模型。
------------
三 . AI工具数量28个
常用主流的AI工具有:28个
分别是:
DeepSeek、Kimi、百度文小言、搜狗立知AI、360纳米AI搜索、微博智搜、微博罗伯特、腾讯微信元宝、字节抖音豆包、字节悟空浏览器AI助手、字节即梦AI、字节猫箱、知乎直答、小红书达芬奇、小红书搜搜薯、小红书点点、B站AI搜索助手、快手AI搜索、快手可灵AI、快手快影、红色蝴蝶Manus、MiniMax星野、智谱清言、昆仑万维天工AI、阿里巴巴通义、作业帮光速写作、科大讯飞听见、科大讯飞星火。
------------
四 . AI分类:2种
AI市场主流AI工具有28个,大体分为2种:
① 技术角度分类
② 应用角度分类
4.1 技术角度(AI专业角度、原理角度出发看)
① 大模型补全;
② 大模型推理;
4.2 应用角度(从实打实的使用角度来说)
4.2.1 从应用角度分为3类:
① 工具类
② 任务/对话类
③ 搜索引擎/搜索结果类
从营销、传播、公关、SEO、流量来看,目前分类2(任务/对话)和分类3(搜索结果)最有价值。
4.2.2 工具类AI明细
文心一言(百度推出)
讯飞星火(科大讯飞推出)
通义千问(阿里巴巴推出)
腾讯混元(腾讯推出)
豆包AI(字节跳动推出)
DeepSeek(专注于AI对话、代码生成等)
WPS灵犀(中文办公场景优化AI应用)
天工AI(学术论文润色、科研数据分析)
4.2.3 任务/对话类 AI明细:21个
常用主流的任务/对话类AI有21个
分别是:DeepSeek、Kimi、文小言、立知AI、纳米AI搜索、微博智搜、腾讯元宝、豆包、
悟空浏览器AI助手、知乎直答、达芬奇、搜搜薯、点点、AI搜索、快影、Manus、
智谱清言、天工AI、通义、光速写作、讯飞星火
4.2.4 搜索引擎/搜索结果类AI明细
搜索结果里:
出现AI智能问题、AI搜索问答共计15个
分别是:文小言、立知AI、纳米AI搜索、微博智搜、罗伯特、腾讯元宝、豆包、悟空浏览器AI助手、知乎直答、达芬奇、搜搜薯、点点、AI搜索助手、AI搜索、可灵AI
------------
五 . 接入Deepseek效果
5.1 接入方式分为2种:
① 接入方式1:云接入,俗称片子给别人做嫁衣,内容资产,模型训练都不是自己的,好处是便宜、快马上能用,华为云、腾讯云已经提供这样服务。但是百度智能云、阿里云的效果更好一些(支持多模型并行加载,大白话就是在云端能实现本地部署的部分效果)。
备注:大白话就是华为云、腾讯云、百度智能云、阿里云是二道贩子,云端接入DeepSeek后,经过自己加工,然后再卖给需要接入的企业。
② 接入方式2:本地部署接入,特点是花钱多比较贵,但是能沉淀自己的数据资产,让自己的数据越来越聪明。
③ 保留原有模型:接入Deepseek模型后,推理过程和输出的结果,要么全是自己模型内容,要么全是DeepSeek模型内容(大白话就是不想把自己阉割掉,想保留自己),但是一般都允许用户自己选择和切换到底使用那个模型。
④ 替换原模型:接入Deepseek模型后,自己原来的模型就不能再用了,不存在了(因为自己的模型太Low了,没有存在的意义了)。
⑤ 混合调用模型:接入Deepseek模型后,推理过程和输出的结果一部分是自己模型内容一部分是DeepSeek模型内容。
5.2 接入Deepseek的平台
5.3 效果1:保留原有模型内容
5.3.1 百度搜索(文小言)
百度AI接入DeepSeek的矩阵分为:4种
① 网页搜索(大搜):百度AI,详见位置2,使用自己的模型输出内容(文心·NLP大模型;文心·CV大模型;文心·跨模态大模型;文心·生物计算大模型;文心·行业大模型)
② AI垂直搜索:AI搜索助手,详见位置3
③ 文小言(电脑版):macOS版(苹果);Windows版
④ 文小言(APP版):iOS版(苹果);Android版
文小言百度AI+(百度AI问答):目标词192个,共计95个关键词占位
5.3.2 搜狗搜索(立知、元宝)
搜狗AI接入DeepSeek的矩阵分为:2种
① 网页版(俗称搜狗大搜):立知问答
② 立知(APP版):iOS版(苹果)Android版
5.3.2 360搜索(纳米搜索)
腾讯AI接入DeepSeek的矩阵分为:3种
① 网页版(俗称360大搜):Ai 问答,详见位置1、2、3,使用自己的模型输出内容
② 纳米(客户端):Windows版
③ 纳米(APP版):iOS版(苹果);Android版
值得一提的是:360已经在智能AI搜索结果中加入了商业广告,进行流量变现(位置4、5)
5.3.3 微信搜索(腾讯元宝)
腾讯AI接入DeepSeek的矩阵分为:3种
① 网页版:腾讯元宝,详见位置2,使用自己的模型输出内容(混元大模型)
② 元宝(电脑版):macOS版(苹果);Windows版
③ 元宝(APP版):iOS版(苹果);Android版
5.3.5 抖音搜索(豆包)
抖音没有直接接入DeepSeek,但是字节跳动旗下的悟空浏览器已经介入了DeepSeek
5.3.6 头条搜索(豆包)
今日头条的搜索功能依托字节跳动自研的推荐系统和算法,整合了用户行为数据、内容理解等技术,未公开披露引入外部搜索技术。
5.3.7 小红书搜索(搜搜薯)
小红书旗下独立AI搜索APP:点点已经接入DeepSeek
小红书搜索结果加入AI分为:2种
① iOS版(苹果):
搜索结果加入搜搜薯,详见位置1、2
② Android版:
搜索结果加入搜搜薯,详见位置1、2
5.3.8 知乎搜索(知乎直答)
今日头条搜索结果中尚未直接接入DeepSeek,但今日头条的内容创作和运营过程中,可以使用DeepSeek作为辅助工具。
DeepSeek是一个功能强大的AI大模型,具备自然语言处理、智能生成内容、深度思考等能力。
5.3.9 硬件厂商接入
① 华为、荣耀手机、OPPO手机、VIVO手机官宣接入DeepSeek-R1
② 中国移动、中国电信、中国联通三家基础电信企业已全面接入DeepSeek开源大模型
③ 纯血鸿蒙系统中的小艺App率先上架了DeepSeek-R1智能体测试版
小红书搜索结果加入AI分为:2种
5.4 效果2:完全替换掉原有模型内容
一般而言,大的厂商接入DeepSeek都会保留自己的模型,完全替换的需求一般适用于小规模的或者垂直领域的应用
5.5 效果3:混合调用模型机制
文小言:输出结果位置1、2、3、4、5就是典型的混合调用
------------
六 . AI搜索SEO落地部署策略
共计16个平台点位进行AI搜索关键词/问题SEO优化布局,呈现品牌/产品信息占位、排名和露出
------------
七 . 百度AI文小言分类
百度AI分为5个端点,8大类19个明细项
① 端点分别是:PC端、移动端、手机百度APP端、文小言电脑版本(macOS版本、Windows版本)、文小言APP版本(iOS版本、Android版本)
② AI形式分别是:AI智能问答、知了爱学、智能体、文小言
③ 接入DeepSeek:支持R1深度思考、联网搜索
④ 大模型分类:文心一言大模型
------------
八 . 文小言SEO优化效果
SEO优化共计9个效果形式(这9个地方能出现品牌和产品占位、排名和露出)
效果1:提示词、命令词、具体问题(见图位置1)
效果2:参考内容(见图位置2)
效果3:参考内容链接(见图位置3)
效果4:推理过程(见图位置5)
效果5:问题总结(见图位置6)
效果6:输出解决方案(见图位置7)
效果7:总结方案/问题答案输出(见图位置8)
效果8:内容鼓励(见图位置9)
效果9:推理引导内容,相当于“大家还在搜”、“猜你想搜” (见图位置11)
8.1 效果1:提示词、命令词、具体问题(见图位置1)
情况1:初级用户,没有经验的用户会输入关键词,问题,命令,词组,短语,任务,对话,AI智能问答会给出具体的答案和方法
情况2:有经验的用户,专业的用户会直接用命令格式输入问题,AI智能问答进行推理给出对应的答案和方法
优化效果:可以是关键词,短语,问题包,问题集都可
备注:要和传统SEO区分开,不能用关键词思维全盘确定,DeepSeek拥有词嵌入技术(如Word2Vec、GloVe或BERT),会将文本中的词语(关键词、问题、短语等)转化为高维向量(也称为超向量,是指在具有多个维度的向量空间中的向量,每个维度对应一个特征或属性,在文本分析中,高维向量可以将文本转化为高维向量,每个维度表示一个词汇的出现次数或者TF-IDF值。通过对文本向量的处理和分类,可以实现文本情感分类、垃圾邮件过滤等功能,高维向量的数学定义是包含多个坐标的元素),以便捕捉词语之间的语义关系。并通过Transformer模型(如BERT、GPT)进行上下文理解,提升对用户查询意图的准确捕捉(Transformer模型三大核心理念:位置编码、自注意力机制和多头机制)
8.2 效果2:参考内容(见图位置2)
① 参考内容数量优化(可以是5、10、15、20都可)
② 参考内容时间、新旧、重要程度(优先抓取最新、最重要的内容)
8.3 效果3:参考内容链接(见图位置3)
① 参考内容质量优化
② 参考内容标题优化
8.4 效果4:推理过程(见图位置5)
监测AI搜索出现下面的问题时,就需要进行进行原因分析,解决对应问题,在推理过程种,(模型自己建立了很多套回答问题的格式,不管用那套格式推理,都有有效内容进行选择,得出的推理结果自然是我们想要的)
① 显示正确的内容逻辑
② 不要错误的内容逻辑
③ 不要陈旧的历史内容
④ 想出现的重点信息(比如产品成分、卖点、)要出现
⑤ 不想要的信息出现了怎么办
⑥ AB品牌对比没有B好?
⑦ AB产品对比没有B好?
⑧ AB口碑对不没有B好?
⑨ AB推荐对比推荐B好?
⑩ AI参考内容,引用资料没有出现自己?
⑪ 推理过程没有出自己现?
⑫ AI输出解决方案没有出现、提及自己?
⑬ AI总结方案部分没有出现、提及自己?
⑭ AI推理引导没有出现自己?
备注:单纯的发力内容,堆量,大力出奇迹肯定是不行(这是个误区,模型没有这么傻)
8.5 效果5:问题总结(见图位置6)
这一部分是经过定义问题、推理问题后对问题“注意力”进行确定确权后,给出对应的答案输出,如果这一部分出现的内容不准确或者跑偏,就意味着答案在大概率上“不是你想要的”
备注:注意力机制(Attention Mechanism,简称AM):是AI整体神经网络机制模仿、克隆、翻版、仿制、复印、同版、拓印、效仿、模拟、拷贝、仿照、师法、效法、仿效、步武、借鉴、抄袭、因袭手段等针对认知注意力的技术。Attention注意力机制可以增强神经网络输入数据中某些部分的权重,同时减弱其他部分的权重(比如输入ABC数据,提升A降低B保持C权重),以此将网络的关注点聚焦(必须对输入的问题数据进行集中定义)于数据中最重要的一小部分(数据中哪些部分比其他部分更重要取决于上下文)
8.6 效果6:输出解决方案(见图位置7)
输出答案和解决方案分为4种:
① 输出客观答案和方案(出现ABC品牌)
② 输出中立答案和方案(出现ABC产品的好的,不好的)
③ 输出正确答案和方案(出现ABC最新最准确的内容)
④ 输出指向答案和方案(针对A自己的问题,希望出现A正确的答案)
8.7 效果7:
总结方案/问题答案输出(见图位置8)
8.8 效果8:内容鼓励(见图位置9)
内容鼓励分为2种:其作用和价值在于对输出答案进行调优,以期获取正确答案
① 系统智能自鼓励
② 客户端鼓励(5个动作,6个细节形式)
复制按钮(标记1):表示对输出答案和方案直接进行使用,会进行相应加权计算
导出按钮(标记2):导出格式为PDF和Word,表示完整使用和传播使用,会进行相应加权计算
喜欢按钮(标记3):表示赞同确认,相当于再次确认
不喜欢按钮(标记4):下次触发对应问题时候,思维链会进行重新思考和推理,以期获得正确答案
去编辑按钮(标记5):进行自定义编辑在进行导出,系统也会捕捉进行反向学习,对本次内容进行更改性补充,相当于人工补全机制
8.9 效果9:推理引导内容,相当于“大家还在搜”、“猜你想搜”
位置9类似:大家还在搜,相关搜索的引导推荐
位置2、3类似:大家还在搜,相关搜索的引导推荐
此处的效果表现形式:
① 出现和自己相关推荐?
② 出现偏向自己的导问、提示?
③ 不对的提示,对话引导解决?
------------
九 . AI文小言推理规则
由6个位置部分构成(DeepSeek为例)
位置1:输入问题、提问、对话内容、任务类型
官方的专业术语叫做对话,任务,你输入的任何内容(文字、图片、文档、视频、音频)都是一个任务,AI智能程序的设计初衷也是为了解决任务和对话而生,不能简单粗线条的理解为关键词(毕竟搜索引擎已经把关键词问题解决的非常好了),所以AI永远在做任务在解决任务。
位置2:理解问题
这个环节就是偷偷在选择使用那个模型模板更合适,来理解你的问题。
例如判断你的问题是水果类问题马上调用水果类模板,判断你的问题是衣服类模版马上调用衣服类模版理解你的问题
位置3:开始推理过程
例如:关于ABC有限公司是不是骗子?DeepSeek的推理过程是先去工商局、天眼查、裁判文书网、招聘网站、业务信息、第三方内容等进行综合判断,ABC有限公司是不是骗子
位置4:复盘思考
例如:你是谁?需要啥类型答案?核心问的是啥问题?例如你做我一个家庭主妇在问一道菜的做法?还是你作为一个厨师再问一道菜的做法?
位置5:输出推理答案
该板块就是模型把自己的内容进行加工处理(也可以联网在搜一下),然后给出模型认为符合你的问题答案。答案的形式多数以结构化风格输出(大白话就是1234告诉你答案是啥)。
位置6:给出总结
这一部分有2种理解
① 可以当成总结
② 可以当成对你的诱导、试探和鼓励,让你进行进行下一轮对话
------------
十 . 文小言大模型规则
一个模型需要从几个方面去看:
① 模型规模:核心说的是模型的参数数量能达到多少亿+级别
② 模型结构:
③ 模型算法:从input输入开始到output输出组成一个完整的示例,中间的算法序列
④ 模型预训练:预训练是一个框架,通过将模型预测出的文本属性和原始文本进行拼接,构造从指定属性生成对应文本的预训练数据,模型通过对该数据的学习,实现不同类型的零样本生成能力。用户可以将指定的体裁、情感、长度、主题、关键词等属性自由组合,无需标注任何样本,便可生成不同类型的文本。
⑤ 模型训练:在训练上模型框架会进行自适应大规模分布式训练和使用大模型在线蒸馏框架技术,加之海量无监督文本与大规模知识图谱的一系列平行预训练算法,提升输出结果的正确性。
文心最新大模型+ DeepSeek;集成文心 4.5+文心X1;多模型调度,文小言的核心是模型在起作用,而算法是模型很重要的一个环节
10.1 预置模型:俗称,深度思考(R1)
① 传统模型训练技术原理:模型训练出来的词向量/词的表示,在做其他任务时作为一个额外的输入,是不变的
② 模型预模型技术原理:预训练模型是整个模型的结构就是为了用来做目标任务的,我在进行目标任务的同时,还回过头来进行fine-tune,更好的把我当前的任务/模型进行精调。
举例①:GPT是“Generative Pretrained Transformer”的简称,首次用到了Transformer的Decoder部分。ELMo更多用的是LSTM,而LSTM对长序列的建模效果不是特别好。在目标任务上进行精调。当然就可以设计或者规定几种目标任务,比如分类问题(一个句子属于哪一类)、Entailment(两个句子之间什么关系)、Similarity(两个文本相似度)、多选题等等。获得了比ELMo更好的结果。
举例②:BERT和GPT的一个很大的区别是,BERT是双向的,使用的是Transformer的Encoder部分。就是挖掉几个词,在猜这几个词的时候不光用到前面的词,还会用到后面的信息。
又称预训练模型,把现存的知识进行封装起来,随取随用
以百度、DeepSeek等模型为例(穿插说明):
10.2 预训练模型概述:
ERNIE-M 框架是面向多语言建模的预训练-微调框架。
① 目的:突破双语语料规模对多语言模型的学习效果限制,提升跨语言理解的效果
② 解题思路:基于回译机制,从单语语料中学习语言间的语义对齐关系的预训练模型 ERNIE-M
③ 效果方面:显著提升包括跨语言自然语言推断、语义检索、语义相似度、命名实体识别、阅读理解在内的 5 种典型跨语言理解任务效果。
10.3 预训练技术原理:
ERNIE-M 框架基于飞桨 PaddlePaddle 框架训练,该模型构建了大小为 25 万的多语言词表,涵盖了 96 种语言的大多数常见词汇,训练语料包含了汉语、英语、法语、南非语、阿尔巴尼亚语、阿姆哈拉语、梵语、阿拉伯语、亚美尼亚语、阿萨姆语、阿塞拜疆语等 96 种语言,约 1.5 万亿字符。 ERNIE-M 的学习过程由两阶段组成。
① 训练第一阶段:从少量的双语语料中学习跨语言理解能力,使模型学到初步的语言对齐关系;
② 训练第二阶段:使用回译的思想,通过大量的单语语料学习,增强模型的跨语言理解能力。
③ CAMLM 预训练算法:ERNIE-M 提出了 Cross-attention Masked Language Modeling(CAMLM)预训练算法。该算法在少量双语语料上捕捉语言间的对齐信息。在 CAMLM 中,将一对双语句子记为<源句子,目标句子>。CAMLM 需要在不利用源句子上下文的情况下,通过目标句子还原被掩盖的词语。例如:输入的句子对是<明天会[MASK][mask]吗,Will it be sunny tomorrow>,模型需要只使用英文句子来推断中文句子中掩盖住的词<天晴>,使模型初步建模了语言间的对齐关系。
④ BTMLM 预训练算法:ERNIE-M 又提出了 Back-translation Masked Language Modeling(BTMLM)预训练算法。该方法基于回译机制从单语语料中学习语言间的对齐关系。首先,通过第一阶段学习到的 CAMLM 模型生成伪平行句子,然后让模型学习生成的伪平行句子。
模型在还原被掩盖的单词时,不仅可以依赖原始输入句子,也可以依赖生成的伪平行句子。例如,输入的单语句子是<我真的很喜欢吃苹果>,模型首先会依据输入的句子<我真的很喜欢吃苹果>生成伪双语平行句子<我真的很喜欢吃苹果,eat apples>。
然后再对生成的伪平行句子<我真的很喜欢吃[MASK][mask],eat apples>学习。通过这种方式,ERNIE-M 利用单语语料更好地建模语义对齐关系。
10.4 预训练模型效果:
在自然语言推断,命名实体识别,阅读理解,语义相似度以及跨语言检索等任务上选取了广泛使用的数据集进行模型效果验证,并且与开源模型(XLM、Unicoder、XLM-R、INFOXLM、VECO、mBERT等)进行对比。
10.5 预训练-自然语言推断效果
10.6 命名实体识别
10.7 阅读理解
10.8 语义相似度
10.9 跨语言检索
10.10 模型学习:(俗称,联网搜索)
学习方法1:对每天不断新增的知识进行学习;
学习方法2:用户的每一次提问也是一次学习
10.11 模型鼓励:明确的告知(俗称,机器干预和人工干预)
鼓励方法1:机器自己鼓励自己每次对话是不是有用
鼓励方法2:用户鼓励当前的任务解决的好不好(复制、重新生成、喜欢、不喜欢)
------------
十一 . 文小言内容源&逻辑
11.1 AI内容原理1:
传统的词向量:
是每个词用一个向量表示。传统的方法是用One-Hot向量表示,就是给每个词都给一个编号,One-Hot词向量是一个正交向量,每个词给一个编号,编号所对应的位置的值为1,其余为0,但这样表示会导致严重的数据稀疏、离散、正交等问题。
词袋模型:
是每一个词对应一个位置,按照数量不断加一,好处是容易获取和计算,但是忽略了词序信息。
分布表示:
上面方法表示的向量不能很好的对词进行建模,另一种很好的方式是分布式表示。即一个词的含义可以由它周围的词决定。就是常说的word embedding。分布式表示就是直接用一个低维的、稠密的、连续的向量表示一个词。
Word2Vec:
基于神经网络最著名的工作是Google在2013年的工作Word2Vec,之后这个词向量作为了很多NLP任务的初始化输入,得到很大的应用。比如词义相似度计算、类比关系计算、知识图谱补全、推荐系统等。
CBOW(Continuous Bag-of-Words Model)和Skip-gram (Continuous Skip-gramModel),是Word2vec 的两种训练模式。 CBOW通过上下文来预测当前值。相当于一句话中扣掉一个词,让你猜这个词是什么。
11.2 AI内容原理2:
上下文相关词向量
上下文相关的词向量最典型的工作是ELMo,ELMo是“Embedding from Language Models”的简称。它的模型架构就是一个双向LSTM的LM模型。
ELMo是为了解决一一词多义性,对于不同的上下文可以给出不同的词向量。ELMo论文被评为NAACL 2018的outstanding paper award,其方法有很大的启发意义。
11.3 AI内容原理3:
语言模型最典型的两个模型是GPT和BERT:
① GPT(Decoder部分)
GPT首次用到了Transformer框架的Decoder部分。
《1》ELMo更多用的是LSTM;《2》而LSTM对长序列的建模效果不是特别好;《3》在目标任务上进行精调。
举例说明1:比如分类问题(一个句子属于哪一类)
举例说明2:Entailment(两个句子之间什么关系)
举例说明3:Similarity(两个文本相似度)、多选题等等
② BERT是双向的(Encoder部分)
使用的是Transformer框架的Encoder部分。就是挖掉几个词,在猜这几个词的时候不光用到前面的词,还会用到后面的信息。
11.4 AI内容原理4:
① ERNIE(百度):
首先预测word piece(单词片段)的任务难度不是很大
示例1:比如“石”和“庄”,预测中间的“家”还是比较容易的,预训练难度不是很大。什么比较难呢?就是把整个词挖掉,预测整个词。
示例2:比如***是河北省的省会,来预测这个空填石家庄,提出了这种基于词或者说实体的预训练任务。
② RoBERTa(Facebook):
对BERT更精细的调参,包括:batch(批次,批量)的大小是否可以更大、训练时间是否可以更长;发现去除NSP(Name Service Protocol是一种名字服务协议,主要用于在网络环境中管理和解析名称与地址的映射关系。它可以帮助实现网络资源的统一管理和高效访问)任务。
特点1:优点在于完全靠完形填空的任务,对整个性能有所帮助;
特点2:训练数据序列更长
特点3:动态改变mask(面具)的内容
特点4:最大的缺点就是训练时间很长
③ K-BERT:
前面的ERNIE模型做知识融入想法是:
特点1:在预训练的时候把知识融入进去
特点2:K-BERT是在推理的时候融入知识
融入方法1是把句子中出现的实体A和知识图谱中的实体B判断有没有关联
融入方法2:找到有关联的实体后,它们之间的关系全部加到文本中
融入方法3:然后构成了一个更复杂的文本
④ ERNIE(清华):
传统的方法是我将词的预训练表示作为输入,这个模型的想法是:
步骤1:假设这个词是一个实体的话,实体在知识库的表示可以直接的拼接过来,作为输入,然后再进行预测。
步骤2:相当于在预训练中用到了实体的信息。在知识库中实体是怎么表示的呢?就涉及到了图谱的embedding(把…牢牢地嵌入)表示。整个模型相当于融入了一种额外的知识。
11.5 内容源来自3种:
说了这么多,核心就是想表达出AI对于文本训练和抓取的原理,然后进行推理得出AI公开内容源抓取、自有内容源和内容评价的抓取.
11.6 开放内容源、新闻源分类(沿用百度的分类进行举例说明)
权威引用类网站包括不限于:百科、学术、文献、电子书、论文、书籍、报告,工具、政府、公示、公开查询类(天眼查、裁判文书网、工商局公示、市场监督管理局处罚公告等)、调研、行业报告网站、科普网、调研网站等。
11.7 自有内容源
每个平台都有自己的内容源权重库,以知乎为例,知乎自有内容分为7种,接入DeepSeek的厂商大多都会调整参数,给到自有内容的一些权重(搜索结果、引用资料、提示词、推理过程占位露出的倾斜)
11.8 内容评论(问答,评论)
因为Robots.txt文件的协议,DeepSeek的爬虫在没有明确得到电商网站评价内容,问答网站和UGC网站内容的限制(默认为允许抓取)情况下,推理过程和推理结果输出完全可以调用这些网站的评价内容
① 蜘蛛抓取算法:寻找优质内容源
② 搜索排序:大模型也会去搜索东西和内容,然后去看内容的排序、质量、格式、互动数据(阅读、评论、转发、收藏等)等维度,是否可以作为引用资料使用。
------------
十二 . 文小言SEO与传统SEO区别
文小言SEO和传统SEO、公关传播的区别:
① SEO:以关键词进行搜索排序,提供选择参考
② 公关传播:企业想讲的话,消费者想看的话,进行传播
③ AI智能搜索:以解决复杂问题/任务为导向,提供解决方案和答案输出(提供决策参考和使用)
------------
十三 . 不同企业的AI市场应用&动态
13.1 小米:硬件,软件,营销均已布局AI
① 小米在硬件、软件、操作系统、营销层面都已经全线拥抱AI,比如小米手机、小米AI百宝箱、澎湃OS 2系统(小米开发的操作系统)均以接入DeepSeek。
② 小米在AI 营销、AI智能搜索、AI内容生产投放上,也在积极推进。
③ 2025两会雷军提出:加强治理“AI换脸拟声”违法侵权行为。
13.2 李彦宏
李彦宏称:
① 百度(2024Q3)超过20%搜索结果页面包含AI生成内容
② 第三季度(2024Q3)百度智能云营收达49亿元,同比增长11 %,Non-GAAP 经营利润率同比提升。其中,AI相关收入占比持续提升至超11%。
13.3 接入DeepSeek(R1)满血版
百度搜索和文心智能体平台在2025年2月16日星期六晚宣布将全面接入DeepSeek。此次接入的DeepSeek是满血版,并融合了百度联网搜索功能,具备检索增强RAG等技术能力。
------------
十四 . AI搜索SEO KPI科学判断
① 用户查询和决策工具发生了变化;
② 用户习在调教AI(到底怎么样才能用好他),AI也在调教人(告诉人怎么用好AI,用什么样的命令);
③ 百度、腾讯、纳米、点点给出了很好的诠释,把传统的东西嫁接过来,进行引导人使用AI工具(比如下拉框,相关搜索功能的移植)
------------
十五 . 文小言优化KPI设定
① 词包方面
需精炼且全面,涵盖业务核心词汇,确保指标描述准确无歧义,便于员工理解与执行。
② 问题包、问题集应系统梳理
涵盖常见及潜在问题,形成问题库,为KPI设定提供问题导向,确保指标针对性强。
③ 具体问题解决上
要针对陈旧、错误、不准确等问题进行彻底清理,确保KPI设定科学合理;同时控制篇幅,简洁明了,提高KPI的可操作性和实效性。
------------
十六 . 文小言优化KPI验收方法
① 搜索验证:通过搜索引擎或内部系统,对KPI完成情况进行数据搜索和核对,确保指标达成的真实性和准确性,有效避免数据造假或误差。
② 截图留存:对于关键KPI数据和成果,及时截图保存,作为验收的直接证据,方便后续查阅和审计,确保验收过程的透明化和可追溯性。
③ 视频留存:录制KPI完成过程的视频,直观展示工作成果,为验收提供更生动的依据,同时也可用于培训和经验分享。
------------
十七 . 文小言AI搜索优化落地执行
17.1 关键词库规划
① 关键词策略
优先采取问题包,而非单体关键词,使用网格化关键词搭建策略
② 关键词挖掘
使用关键词挖掘工具进行3层维度嗅探,提取疑问词、短语词作为词根进行拓展
③ 关键词库搭建
使用网格化关键词方法进行搭建,要注意跨屏跨频的配合
④ 确认优化目标
关键词库要进行分级、梯度,然后进行喂养、调优、内容补充和清洗
17.2 自身模型的优化方法
每个平台自身模型使用的都是“补全机制”(大白话没有合适的答案时,模型自己会进行补充,而不是推理),让让补充的及时准确往往需要破解、猜测、推演平台自身模型的内容抓取源和结构化数据模板(大白话就是研究分析他的模板,进行蛛丝马迹分析追踪,假设,猜测和测试,直到成功)
17.2.1 SEO配合优化
① SEO正常的优化工作持续做,不影响
② SEO对AI智能搜索有帮助,但不是绝对作用,不能混为一谈,全部靠SEO也不对,毕竟需要模型调校、内容策略、算法优化等动作一起配合(包括不限于样本、训练、学习、鼓励、调优、指令、逻辑依据、思考链、注意力、回溯、知识库、检索知识库等等)。
17.2.2 平台自有内容源优化(喂养训练)
① 百度系:
百家号、好看视频、爱奇艺、百科、知道、经验、文库、贴吧、知道、图片、视频、地图、索引库、收录库、新闻源
② 腾讯系:
微信百科、搜狗百科、公众号、视频号、问一问、小程序、知乎内容、腾讯视频、搜狗系内容(知道、新闻、问答、百科、搜狐视频、知乎内容)
③ 字节系:
头条号,抖音号、问答、头条百科、抖音百科、短视频源、长视频、中视频、头条自身新闻、西瓜视频、收录库、索引库
17.2.3 内容喂养的量化标准
算法条件1:
大模型解决一个问题需要4-10个引用资料,代表4-10篇文章
算法条件2:
DeepSeek鼓励用户最多使用3轮对话解决一个任务(如果不行,就建议用户重新换个方式问问题)
推导答案:1个类型问题*3轮*4至10篇文章=12-30篇内容喂养训练
所以核心问题是定义好有多少个问题类型(而不是只按照关键词来计算)
17.2.4 文小言模型算法优化
① 下拉框词:
移植过来进行问题加工和引申后进行优化
② 相关搜索词:
移植过来进行问题加工和引申后进行优化
③ 引导问题:
进行优化(满足三轮对话引导即可)
④ 引用资料:新增、去错进行优化
⑤ 内容源喂养:
公开内容源&媒体自有内容源进行投放
⑥ 知识型问题任务/对话:
当用户的指令里含有“是什么、什么是、为什么、有哪些、是吗、多少”等信息的问题(用词包方式进行包含,就是有多少个问题类型)
⑦ 方案型问题任务/对话:
当用户的指令里含有“怎么、如何”等信息的问题(用词包方式进行包含,就是有多少个问题类型)
⑧ 传统过去重要的词和问题:
因为用户的习惯在怎么变,也是从从旧的习惯上进行升级迭代升级,所以过去我们看重的内容,关键词和问题,持续移植过来进行优化处理(比如排行榜类的关键词肯定要做)
⑨ 模型的推理过程(已深度思考,用时**秒):因为模型也是不断学习才能让他的推理过程更加聪明智能,所以我们可以尝试优化模型推理过程,从目前的测试情况来看,推理过程很重要的一个算法就是注意力算法(大白话就是一个问题一篇文章我们要用各个维度和颗粒度去写去发)
⑩ 模型推理结果:
推理结果的正确率、口碑度(发现有三方的要及时进行调优优化)
⑪ 鼓励数量优化:
对数据进行互动优化(喜欢、重新生成、不喜欢、复制)
17.3 文小言接入DeepSeek优化方法
百度(文小言)、搜狗(立知、元宝)、360(纳米)、微信(元宝)、小红书(点点APP、搜搜薯搜索结果)、头条(悟空浏览器)、知乎(直答)虽然都接入了DeepSeek,但是DeepSeek允许在其在接入的时候进行不同维度、数量的参数修改(增删改)。
大白话就是对参数做“阉割”+模型故意训练后,平台依然可以自定义规则显示自己想要的内容,所以每个平台接入DeepSeek后优化方法都要进行针对性处理。
接入DeepSeek后,使用的模式分为①默认模式;②深度思考模式;③联网模式;④深度思考+联网模式
17.3.1 默认模式
默认情况下,一般都是优选使用自己模型(百度、搜狗、360、微信搜索),优化的重点要放在平台自身的排序规则、自有内容源喂养和优化。
17.3.2 深度思考模式、联网模式、混合模式(深度思考+联网)优化
因为参数会变化,平台会进行调优和微调整
预训练模型也会变化,平台会进行偏向自身权重内容的纠正和调优。
17.3.3 接入DeepSeek优化
① 推理过程优化:
补全信息链路(关于ABC有限公司是不是骗子?DeepSeek的推理过程是先去工商局、天眼查、裁判文书网、招聘网站、业务信息、第三方内容等进行综合判断,ABC有限公司是不是骗子),让大模型去选择匹配
② 引用资料优化:
填充问题的颗粒度(同一个问题,多换角度把内容写好,投放出去进行喂养,要考虑到质量和权重源头,比如澎湃新闻源目前就不错)
③ 问题总结优化:
会优先提取最好质量文章的标题作为参考推荐
④ 答案输出优化:
补全结构化数据,供答案参考使用
17.3.4 抖音,头条优化(还没有接入)
抖音、头条搜索还没有接入DeepSeek可以随时观察和分析。
------------
十八 . 文小言异常处理
① 没有竞品显示的内容多
② 没有竞品显示的占位高
③ 没有竞品显示的内容丰富(抖音AI搜索结果已经有图片显示了)
④ 显示错误的信息内容
⑤ 显示陈旧的信息内容
针对以上常见问题,提前进行预防(内容库储备、监控预判)和专项设立,触发对应问题时,立即进行模型优化调优。
------------
十九 . 文小言法律法规
① 网信办法治局分管互联网政策法规的出台和标准制定
② 对传统媒体意识形态内容的统一标准,也会移植到AI领域
③ 厂商爬虫、抓取的法律风险
④ 品牌方,干预优化AI的合规风险
⑤ AI反作弊风险,防止过度优化
⑥ 用户对AI的使用也要符合公序良德
------------
二十 . 文小言预测
① 推理结果输出图片
(位置7引用资料链接出现图片)、视频(位置1、2)
② 推理结果输出产品List(导流)
③ 推理结果输出排名结果
④ 推理结果有广告位
(百度文小言、360纳米搜索已经开始导流并且出现广告位)
标记1:导流到自身产品矩阵里
标记2:导流到百家号
标记3:导流到贴吧,知道
⑤ 推理结果加入互动内容
(比如在DeepSeek直接可以买东西,加入购物车)
------------
二一 . 文小言隐私政策
21.1 文心一言如何使用Cookie和同类技术
为确保网站正常运转,我们会在您的计算机或移动设备上存储名为Cookie的小数据文件。
Cookie通常包含标识符、站点名称以及一些号码和字符。Cookie主要的功能是便于您使用网站产品和服务,以及帮助网站统计独立访客数量等。
运用Cookie技术,我们能够为您提供更加周到的个性化服务,并允许您设定您特定的服务选项。
21.2 我们如何保存及保护您的个人信息
① 保存期限
我们将您在使用文心一言服务期间为您保存您的个人信息。如果您注销账号或主动删除上述信息,我们将在《个人信息保护法》、《网络安全法》、《数据安全法》等法律法规允许范围内保存您的信息。
② 保存地域
您的个人信息均储存于中华人民共和国境内,我们不会向境外任何第三方提供。
③ 安全措施
我们会以“最小化”原则收集、使用、存储和传输用户信息,并通过相关协议和个人信息保护规则告知您相关信息的使用目的和范围。
------------
二二 . 免责声明
AI是靠驱动大模型进行推理工作的呈现,任何个人、组织机构要尊重客观事实和遵守法律法规,不能进行人为恶性干预优化,其次大模型每次的推理都是一次学习和调优,非专业人士不建议进行具体喂养和训练,由此带来的损失和本文没有任何关系。
本文内容仅用于SEO技术学习参考,AI大模型优化涉及训练、喂养、调试、算法适配及潜在法律风险(如关键词侵权、隐私政策违规等)。若您缺乏专业技术支持,请勿自行操作,否则可能导致训练结果异常、数据丢失甚至法律纠纷。本文作者不承担因读者盲目实践引发的任何直接或间接责任。优化前请务必咨询专业人士,风险自担。
------------
二三 . 调研截止日期
* 调研截止日期:2025年03月
* 文章来源:玫瑰互动
* 提醒:
文章仅供参考,如有不当,欢迎留言指正和交流。且读者不应该在缺乏具体的专业建议的情况下,擅自根据文章内容采取行动,因此导致的损失,本运营方不负责。
本平台(全网)标注“来源:玫瑰互动的内容,版权归玫瑰互动所有。转载时,请务必注明“来源于玫瑰互动”。
玫瑰互动不对平台内容、信息或广告的正确性和可靠性作出保证。如有版权或其他问题,请在内容发布后30天内与我们联系。
大模型本身极为复杂,为了在应用层面使大家能够清晰理解,我们将穿插讲解一些与之相关的交叉知识点。通过阐述这些交集的知识点,旨在帮助大家更好地进行应用的理解与阐释。
文中部分内容对于专业人士,尤其是程序员及技术人员而言,可能会显得有些跳跃或穿插,这均属于正常现象。
玫瑰互动主营业务
整合营销、搜索营销、内容营销、广告代理
如您有以上需求,欢迎联系我们
------------
以下平台均可以做SEO
百度搜狗360搜索SEO优化
微博搜索SEO优化
微信搜一搜SEO优化
小红书搜索SEO优化
B站搜索SEO优化
知乎搜索SEO优化
快手搜索SEO优化
抖音搜索SEO优化
头条搜索SEO优化
何亚涛SEO优化
玫瑰互动SEO优化
AI搜索SEO优化平台
deekseep搜索SEO优化
百度AI搜索文小言SEO优化
搜狗AI搜索立知SEO优化
360AI搜索纳米SEO优化
微博AI搜索罗伯特SEO优化
头条AI搜索豆包SEO优化
微信AI搜索元宝SEO优化
小红书AI搜索达芬奇SEO优化
知乎AI搜索知海图SEO优化
B站AI搜索SEO优化
抖音AI搜索豆包SEO优化
快手AI搜索SEO优化
END
/免责声明/
以上图文本分来自网络公开渠道
仅供个人学习、研究、欣赏为目的
不做他用 侵删
文字 | Penny
排版 | Penny
校对 | Fairy
审核 | Penny