人类VsAI文本
困惑度(Perplexity)、爆发度(Volatility)、用词平滑度(Smoothness in Word Usage):这三个指标确实可以帮助区分AI和人类生成的文本。困惑度反映了模型对文本的不确定性,爆发度可以看作是文本生成中的非连贯性,而用词平滑度则衡量用词的自然度和连贯性。
慢思考
好方向:
ByteGPT(BGPT)这是一种专门设计用于处理二进制数据和模拟数字世界的深度学习模型。简单概括,bGPT突破了传统语言模型的局限,能够直接理解和操作二进制数据,拓展了深度学习在原生二进制数据领域的应用边界。
可以直接做多模态的数据集,字节级的图文联合训练。
MP-GT:通过结合GCN和Transformer方法来增强App使用预测的准确性,实现了74.02%的性能提升,且训练时间减少了79.47%。
MotionAGFormer:结合GCNFormer和Transformer以捕捉复杂的局部关节关系,提高3D姿势估计的准确性。实验表明其参数减少了3/4,计算效率涨了3倍。
GNN过度依赖图上的链接,此外由于大图非常耗显存,可能无法直接进行操作。该论文提出了一种新的只依赖attention机制的图网络Graph-BERT,Graph-BERT的输入不是全图,而是一堆采样得到的子图(不带边)。作者使用节点属性重构以及结构恢复两个任务进行预训练,然后在下游数据集上进行微调。该方法在节点分类和图聚类任务上达到了SOTA。
Graph-BERT 潜在地适用于知识图谱,并能实施一些形式的交叉验证以及实现“慢思考”过程。让我们分别探讨这些方面:
1. 知识图谱的应用
知识图谱由大量的实体(节点)和关系(边)组成,其中包含丰富的结构化知识。Graph-BERT 通过其子图采样和基于注意力的学习机制,可以有效地学习这些实体和关系之间的复杂交互:
实体表示:Graph-BERT 可以通过预训练任务(如节点属性重构)学习到丰富的实体特征,这些特征捕捉了实体的属性和其在图中的上下文。
关系学习:通过结构恢复任务,Graph-BERT 能推断实体间可能的链接,即使这些连接在子图中不直接存在。这对于理解和推理知识图谱中实体间的复杂关系非常有用。
2. 交叉验证
在知识图谱的背景下,交叉验证通常用于评估模型对新关系和实体的推理能力。Graph-BERT 可以在这里发挥作用,尤其是在其训练和微调过程中:
模型评估:可以将知识图谱分成多个子集,使用一部分进行训练,而其他部分用于验证。Graph-BERT 通过处理这些不同的子图集合,可以验证其在未见数据上的表现。
稳健性测试:通过变化子图采样策略,可以测试模型对图中不同模式的适应性和鲁棒性。
3. 慢思考
慢思考在AI中类似于深度推理过程,Graph-BERT 可以通过以下方式实现:
多轮推理:在生成实体和关系的表示时,可以设计多阶段的注意力机制,其中模型在输出最终预测前,多次审视和修正其内部表示。
复杂查询处理:对于复杂的图查询,Graph-BERT 可以利用其注意力机制对查询涉及的多个实体和关系进行深入分析,从而生成更加精准和深入的响应。
结论
尽管 Graph-BERT 不是传统意义上专为知识图谱设计的模型,但它的架构和机制使其非常适合于处理知识图谱中的复杂结构和关系。通过合理的训练和应用策略,Graph-BERT 不仅能进行交叉验证,还能支持复杂的推理任务,实现所谓的“慢思考”过程。这样的应用可能会进一步推动知识驱动的AI应用,尤其是在需要深度理解和推理的场景中。
参考资料: