人工智能毁灭人类的潜力:财富 500 强首席执行官的观点

42% 的 CEO 认为人工智能可能在十年内毁灭人类

代表各个行业的财富 500 强公司的大多数首席执行官都认为人工智能可能会毁灭人类。 尽管商界领袖都在急于拥抱这项技术,但情况仍然如此。

根据CNN分享的调查结果,耶鲁大学调查的119家公司中,42%的首席执行官认为人工智能将在五到十年内毁灭我们的物种。

美国有线电视新闻网 (CNN) 报道称,虽然持有这种信念的首席执行官的名字尚未公开,但上周在耶鲁大学首席执行官峰会上接受调查的群体包括各种领导人,包括可口可乐、沃尔玛和其他大公司。

来源和详细信息:
https://futurism.com/the-byte/ceos-ai-destroy-humanity

商汤发布人工智能机器人围棋经典棋盘游戏

商汤科技推出人工智能机器人棋盘游戏

该游戏配备了机械臂、屏幕显示器和棋盘。

中国商汤科技公司推出了世界上最古老的棋盘游戏围棋的一个版本。 据信它起源于4000年前的中国。

SenseRobot Go是一款帮助年轻人学习下围棋的机器人。 据新闻稿称,它有一个机器人手臂、一个显示器和一个棋盘,适合从初学者到专业人士的各个级别玩游戏。

来源和详细信息:
https://interestingengineering.com/innovation/sensetime-reveals-ai-powered-board-game-robot

Sonicverse:教机器人聆听周围环境

这个新的模拟器平台训练机器人如何聆听周围环境

斯坦福大学的研究人员创建了 Sonicverse,这是一个兼具视觉和音频元素的环境,可用于以更真实的方式训练机器人。

来源和详细信息:
https://interestingengineering.com/innovation/this-new-simulation-platform-trains-robots-to-hear-their-environment

格莱美奖限制人工智能——只有有意义的人类工作才会得到认可

格莱美奖限制人工智能——只有有意义的人类工作才会得到认可

录音学院周五宣布了格莱美奖的新资格标准,该标准只允许人类创作的歌曲获得提名。

根据唱片学院的新标准,任何带有人工智能元素的作品还必须具有有意义的“人类创作成分”,才有资格获得格莱美奖。

根据新的资格要求,使用人工智能创作的歌曲必须包含“人类创作的成分”并且“有意义”。

来源和详细信息:
https://www.forbes.com/sites/tylerroush/2023/06/16/grammy-awards-restrict-ai-only-meaningful-human-work-will-be-recognized/?sh=4be759c4d2de

Meta 的 Voicebox:为 Deepfakes 做好准备但尚未发布的 AI 工具

Meta 的人工智能语音工具已经为 Deepfakes 做好了准备,因此尚未发布。

Meta 表示,这种新的、强大的人工智能工具的“潜在滥用风险”阻碍了它的发布。

Meta 于周五宣布创建 Voicebox,作为其继续进军人工智能领域的一部分。 Meta 表示,Voicebox 是一款用于生成语音对话的应用程序,具有许多潜在用途。 然而,它也容易被滥用。

Meta 声称,与之前的平台不同,Voicebox 能够执行语音生成以外的任务。 人工智能工具使用文本和音频剪辑来创建有趣的声音。

来源和详细信息:
https://decrypt.co/145034/meta-new-ai-speech-tool-ready-made-deepfakes

探索人工智能的地下世界:一部关于重启硅谷的创新和机遇的 NFX 纪录片

地下人工智能的崛起——重启硅谷
在我们最近的人工智能黑客马拉松中,NFX 团队花了 48 小时走访房屋和办公室,与顶级创始人交谈。 他们了解到什么是艰难的、令人兴奋的,以及他们的工作将如何永远改变。 人工智能社交俱乐部和黑客之家每天都充满活力和新思维,令人难以置信。 地下人工智能正在兴起。

NFX 不投资任何这些公司。 访问我们的网站了解更多信息 — www.nfx.com

来源和详细信息:

深度强化学习用于对人形机器人进行编程以踢敏捷的足球。

双足机器人的深度强化学习,学习敏捷的足球技能
谷歌 DeepMind 人工智能实验室的研究人员编写了两个小型人形机器人来玩经典的一对一足球游戏。 结果很可爱。

我们使用 Robotis OP3 迷你人形机器人研究了深度强化学习在 1v1 足球中的应用。

网站:https://sites.google.com/view/op3-soccer。
论文:https://arxiv.org/abs/2304.13653。

来源和详细信息: