你还希望为一家在一定程度上与你所信仰的价值观一致的公司工作。而且它正在创造一种我们如今在其他地方可能找不到的社区,因为我们被孤立并沉迷于手机和社交媒体,我们确实在工作场所寻找这种社区。所以,正如你所说,Aaron,我们也必须考虑这一点。 我想换个话题。显然,以及 PRophet AI,作为 AI 产品的创始人,我很想听听您如何处理道德问题,特别是关于透明度、隐私以及偏见等问题,正如我们在本集早些时候提到的那样。
我们位于 OpenAI 之上我们也使
用 Anthropic 和 Azure但我们与这三个组织都签订了 SLA,然后将 手机号码数据 其传递到我们与客户的协议中。我们向客户保证,我们使用的大型语言模型不会使用他们的数据或泄露他们的数据来训练他们的模型。所以这是第一点。 第二件事是,当我想到人工智能中的偏见时,人工智能并没有偏见。
人类是有偏见的人类构建算法
然后为人工智能提供动力,对吧?人工智能实际上是 HI,它真的是人类智能。所以,人工智能的偏见只会和建造它们的人类一样多。因此,你需要有对策和算法,然后在每个平台内搜索和识别偏见,这需BY 列表 要 时间和投资。我们也不想过度依赖它。所以你知道,其中一部分也是成为一个更好的及时工程师,没有双关语的意思,这被称为无提示,但提示这项技能非常重要。这是训练的一部分,所以你必须有所改变。
我认为人工智能真正能够对抗偏见的
地方是在影响者和创作者领域。因此,一个众所周知的事实是,一项又一项的 USPA 全国安全部门推出突破性技术 研究表明,至少有 的黑人和棕色人种创作者的薪酬低于白人。为什么?因为品牌与代理商、创作者、代理人或代表该创作者的代理商之间的供需系统是不透明的。所以他们有点像在与自己谈判。但如果我们能够以匿名的方式上传所有合同和范围、经验水平,包括帖子数量、他们说了什么、这是视频吗、这是帖子吗,等等,那不是很有趣吗?并进行比较分析,以便影响者和创作者获得与他们的价值相符的报酬。