对未经授权使用内容和侵犯


然而,通用 LLM 的使用仍然带来一系列挑战。首先是它们的通用结果、不可靠的质量或缺乏可重复性。这将更具挑战性,因为由于版权的行为提起的法律诉讼[2] ,可用的优质数据源可能变得稀缺。此外,使用通用 LLM 会导致对操作员的依赖并强化垄断,[3] 这对长期用户不利。 AI 对环境的影响 Hugging Face 和 Allen Institute [4]的研究人员表明,与传统的云计算不同,对于配备 GPU 的服务器,与机器使用相关的碳排放量远远超过与制造组件相关的碳排放量。

使用 AI 模型生成图

像是最耗能的用途之一,所需的电量与给 电话号码库 智能手机充满电一样多。[5]以这种方式逆转服务器整个生命周期中的碳排放分配意味着,训练和推断 AI 模型的数据中心的电源使用效率 (PUE) 以及它们所在国家的能源结构,是计算应用程序全球碳足迹非常重要的选择标准。 这对 OVHcloud 来说是一个好消息。

事实上,该集团

长期以来一直致力于减少其数据中心的碳足迹。[6] 可以预料的是,通用的 LLM 对环境的破坏性比为特定任务设计的专用模型更大。同一组研究人员进行的一系列对比测试揭示了这一点。[7] 由于有数千亿种设置,最大的 LLM 变得越来越大,数据也越来越密集。[8]《新科学家》杂志的一篇文章最近解释说,算法的进步正在超越摩尔定律,因为八个月后。

大型语言模型只需

电话号码库

要一半的计算能力就能达  到同样 的 具有说服力和吸引力的内容的力 性 能水平。[9]然而,要运行今天像 OpenAI 这样的模型,微软每天将花费大约 70 万美元[10],或平 均每个查询花费 36 美分。从经济和环境的角度来看,这仍然是不合理的,无法满足通常精确且定义明确的需求。 因此,专用模型可以串联起来执行复杂的任务(称为代理化),是一种比通用 LLM 更环保的替代方案。

除此之外,专用模型在

开源中更广泛可用,也更容易理 bzb 目录 解和微调。它们似乎更适合可逆地构建创新,而投资回报率仍然非常不确定。 保持控制:努力开发值得信赖的人工智能 尽管大公司很快意识到使用数字服务(例如在线翻译,它们已开始禁止)时泄露机密数据的风险,但人工智能加剧了输出公司数据并将其提交给算法的诱惑:在这里更快地编写报告,在那里生成一幅图片来展示机密项目的演示。

三星从惨痛的经历中

吸取了教训,它曾三次遭遇与使用 ChatGPT 相关的数据泄露,这些员工特别复制/粘贴了源代码来解决或优化问题。 你不需要透露大量信息就可以表达你的意图。你的竞争对手会通过阅读你的 ChatGPT 提示来了解你的策略吗?毕竟,由于一个导致安全问题的漏洞[11] ,人工智能可能会意外“抓取”用户提交的数据。