假设您在银行申请信贷。在与银行代表会面时,您被告知您的信贷申请被拒绝,并且您没有资格获得所需的信贷。在要求解释拒绝的原因时,您被告知 – 根据银行之前提供的大量信贷 – 代表的直觉告诉他们您不是一个安全的选择。您会对这个解释感到满意吗?不,您不会。特别是在决策基于您的个人信息的情况下,您会要求适当的解释。
现在,假设代表只是在
阅读一些已经输入了您的数据的 AI 算法的输出,因此不知道为什么做出这 WhatsApp 电话号码数据 个决定。这可以接受吗?当然不能!然而,直到最近,AI 算法在许多领域的应用才导致了这种情况和类似情况的发生,如上所述。
复杂的 AI 算法通常使用
个人数据进行训练,并做出重要决策,而用户甚至算法的开发人员都无法解释 AI 如何得出结果。关于算法为何做出决定的信息通常包含在一个极其复杂且对人类来说最初不透明的二元是非游戏中。以我们能够理解和描述的方式理解 用低代码创造独特的数字体验 这个游戏对于 AI 模型的用户和开发者来说是一个重要的挑战,因为 AI 应用正在成为我们日常生活中越来越重要的一部分。
LLM、立法和可解释性需求
大型语言模型 (LLM),例如臭名昭著的 OpenAI ChatGPT 或德国同 bz 列表 行 Aleph Alpha 的 Luminous,是复杂且难以处理的 AI 模型的非常新近和突出的例子。这些模型和类似模型基于巨大的数学模型,这些模型在数月和数周内使用大量数据进行了优化。其结果是惊人的语言理解和生产能力,使 LLM 成为公众和商业关注的焦点。为什么“为什么”如此重要 – 可解释的人工智能解析