Discuz! Board

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 27|回復: 0
打印 上一主題 下一主題

知识图谱本质上是事实

[複製鏈接]

1

主題

1

帖子

5

積分

新手上路

Rank: 1

積分
5
跳轉到指定樓層
樓主
發表於 2024-4-21 12:06:44 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
KELM 是知识增强语言模型预训练的缩写。像 BERT 这样的自然语言处理模型通常是在网络和其他文档上进行训练的。 KELM建议在语言模型预训练中添加可信的事实内容(知识增强),以提高事实准确性并减少偏差。 KELM 背景 自然语言文本通常包含偏见和事实上不准确的信息。然而,知识图等替代数据源包含结构化数据。知识图谱本质上是事实,因为信息通常是从更可信的来源提取的,并且后处理过滤器和人工编辑器确保删除不适当和不正确的内容。


因此,任何可以包含这些内容的自然语言模型都具有事实准确性和减少偏见的优点。然而,这些数据的结构化 电报数据 性质使得它们难以合并到自然语言模型中。 在语言模型的KELM预训练中,谷歌尝试了一种将KG数据转换为自然语言的方法,以创建合成语料库。 然后,他们利用 REALM(一种基于合成语料库的检索语言模型)作为预训练中集成自然语言语料库和知识图谱的方法。 将 KG 转换为自然语言文本 让我们通过一个简单的例子来理解这一点。 知识图谱由以结构化格式明确表示的事实信息组成,通常采用[主体实体、关系、客体实体]三元组的形式,例如[10×10相册,inception,2012]。一组相关的三元组称为实体子图。






基于前面的三元组示例构建的实体子图的示例是 { [10×10 photobooks, instance of, Nonprofit Organization], [10×10 photobooks, inception, 2012] },如下图所示。 KG 可以被视为互连的实体子图。 来源:谷歌人工智能博客 将实体子图转换为自然语言是标准数据到文本处理任务。然而,将整个 KG 转换为有意义的文本还有其他挑战。 此外,现实世界的 KG 比基准 KG 更细粒度和更广泛。此外,对于基准数据集,它们还预定义了可以形成有意义的句子的子图。对于整个知识图谱,还需要创建实体子图的分割。


回復

使用道具 舉報

高級模式
B Color Image Link Quote Code Smilies

本版積分規則

疾病預防與治療|威格拉|威而鋼口溶錠|犀利士5mg|壯陽藥散賣試用|swag討論區|手機版|犀利士20mg|https://www.poxet.tw|硬度不足要如何改善  

GMT+8, 2024-9-8 10:41 , Processed in 5.512729 second(s), 4 queries , File On.

抗攻擊 by GameHost X3.3

© 2001-2017 Comsenz Inc.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |