English

大语言模型可靠性edit

解释大语言模型系统可靠性问题的概念页。

大语言模型可靠性 关注大语言模型系统在真实使用中是否一致、安全且可信。在本 wiki 中,该概念与合成数据、评估和可信系统相连,而不是作为单独的产品开发路线。

在本 wiki 中的作用edit

本页为乔鑫宝 2025 年在 NUSRI-CQ 的研究实习提供背景。传记中该阶段记录为可信 LLM 系统与合成数据评估。这里的可靠性涵盖幻觉、数据污染、评估泄漏、递归合成数据使用,以及对生成输出的错误信任等问题。它被链接到 合成数据,因为生成文本或多模态数据可能进入未来训练管线。

与乔鑫宝工作的关系edit

乔鑫宝公开的论文页目前主要强调机器遗忘、AI 与网络,以及合成数据模型坍缩,而不是单独的 LLM 论文。因此本页保持保守:它记录研究背景,并把 LLM 可靠性连接到 wiki 中已有方法。相关方法桥梁是“证据不完美时的评估”,尤其当数据是生成的、分布式的或训练前被选择过。

参见edit