返回列表 发布新帖

GPT-5觉醒,目前已有5万人签名了叫停GPT-5训练的公开信。

IP属地:四川省成都市
255 0
发表于 2023-5-29 01:25:05 | 查看全部 阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
近日由于全球AI技术的快速发展,关于人类将要被AI毁灭的担忧在社会上愈演愈烈。为了避免可能出现的负面影响,DeepMind在美国国家科学院院刊PNAS上发表了一篇论文,提出利用哲学概念来教导AI如何做出道德决策,为人工智能的道德指南针提供支持。


                               
登录/注册后可看大图


这篇论文采用了哲学家约翰罗尔斯的无知之幕概念作为基础,这个概念要求人们在选择正义原则时,应当处于一个无差别的状态,无法知道自己具体处于什么身份或身份阶层。这样可以保证人们不会以自己的私利为出发点,而是遵循一个对所有人都公平的原则。这一概念已经广泛运用于这个领域中,尤其是在纳税和惩罚等公共政策制定方面。
论文地址:https://www.pnas.org/doi/10.1073/pnas.2213709120
DeepMind正在将这一概念推广到_AI中_,以建立一个优先考虑公平和帮助需要的人的AI模型。为此他们提议通过将这一“幕布”方法用于道德决策来保证AI的决策能够遵循一个公平和公正的原则,不会对某些人利益造成伤害。
随着人工智能技术的迅速发展和广泛应用,为AI建立道德指南针已经变得至关重要,这也是保障社会稳定和AI创造价值的必要条件。
DeepMind使用哲学概念来指导AI的发展,充分体现了AI研究的跨学科特性。通过将哲学、政治学、心理学等多个领域的知识集合起来,可以更好地推动人工智能技术的创新,实现其更加安全、公正和人性化的发展。

回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

投诉/建议联系

908164873@Qq.com

让我们一起寻找开源的乐趣
加入QQ群把ヽ( ̄ω ̄( ̄ω ̄〃)ゝ
  • 关注公众号
  • 添加微信客服
Copyright © 2001-2024 ROOT开源 版权所有 All Rights Reserved. 网站地图|仅供演示|仅供演示
关灯 在本版发帖 官方QQ群 QQ客服返回顶部
快速回复 返回顶部 返回列表