Contexte gauche | Mot | Contexte droit |
---|---|---|
AI | ||
AI | ||
驾驶 汽车 , 人工智能 ( | AI | ) 正在 迅速 地 发展 |
AI | ) , 因为 它 被 | |
AI | ) 。 虽然 专用 人工智能 | |
在 短期 内 , 保障 | AI | 对 社会 有益 的 科研 |
小 麻烦 。 但 当 | AI | |
计 更 有 智慧 的 | AI | |
AI | 可能 是 人类 历史 上 | |
AI | 的 诞生 戛然而止 , 除非 | |
会 在 | AI | 成为 超级 智能 之前 即可 |
AI | 是 否 会 实现 , | |
未 来 人们 受益 于 | AI | 的 同时 , 规避 潜在 |
AI | 不 可能 产生 人类 的 | |
AI | 有意识 地 趋善 向 恶 | |
。 当 考虑 | AI | |
AI | 被 设计 执行 毁灭性 任务 | |
大量 伤亡 。 此外 , | AI | |
能 无意 中 引发 | AI | |
AI | ) 中 , 但 随着 | |
AI | ||
AI | 被 开发 进行 有益 的 | |
看 , 我们 对 高级 | AI | 的 担忧 并非 在于 其 |
AI | 将 非常 善于 完成 其 | |
为何 人们 最近 对 | AI | |
AI | 研究 的 科学 家 最近 | |
媒体 和 公开信 中 对 | AI | 风险 表示 关心 。 为什 |
AI | 的 成功 实现 一直 被 | |
的 突破性 研究 和 许多 | AI | |
家 仍然 猜测 类 人 | AI | 在 几 个 世纪 以后 |
才 可能 发生 , 大多数 | AI | 研究员 |
由于 | AI | 有 可能 变 得 比 |
于 | AI | 的 发展 可能 衍生 出什 |
持续 蓬勃 发展 。 针对 | AI | |
我们 应该 在 不 阻碍 | AI | 发展 的 前提 下 , |
安全 研究 来 加速 对 | AI | 科技 的 管理 能力 。 |
关于 高级 | AI | 的 误传 |
正在 进行 。 当下 , | AI | |
的 争议 , 例如 : | AI | 对 就业 市场 未 来 |
AI | 开发 是 否 会 导致 | |
一个 常见 的 误区 与 | AI | 的 时间表 有关 : 那 |
却 从未 出现 过 。 | AI | 这 类 科技 也 在 |
并 进行 | AI | |
并 不 正确 。 对 | AI | |
有 一些 调查 问卷 向 | AI | 研究 人员 询问 他们 对 |
制造 类 人 | AI | 至少 有 |
AI | ||
会议 的 | AI | |
相关 的 传言 就是 对 | AI | |
的 人 认为 类 人 | AI | 在 几 年 内 就 |
研究 的 人事 实上 对 | AI | |
不 多 。 当 标准 | AI | |
人们 只 需要 理解 到 | AI | 可能 带 来 的 安全 |
了 安全 起见 , 投入 | AI | 安全 研究 是 非常 合理 |
于 优先 考虑 短期 内 | AI | 所 能 带 来 的 |
许多 | AI | 研究 人员 在 看到 这个 |
他们 简洁 地 总结 了 | AI | 研究 人员 不 担心 的 |
, 但 它 与 | AI | 的 风险 无关 。 如果 |
AI | 所 做 的 事 , | |
该 担心 的 不 是 | AI | 的 恶意 , 而 |
AI | ||
AI | ||
AI | ||
AI | 研究 人员 的 论文 | |
AI | ||
AI | ||
AI | ||
AI | ||
AI | ||
AI | ||
AI | ||
AI | ||
对 开发 新 | AI | |
AI | ||
ai | ||
ai | ||
AI | ||
AI | ||
小时 : | AI | 安全 研究 人员 的 职业 |
AI | ||
AI | ||
AI | ||
AI | ||
AI | ||
AI | ||
AI | ||
AI | ||
人工智能 | 的 益处 和 风险 | |
的 产物 , 所以 用 | 人工智能 | 增强 人类 智能 有 促进 |
什 么 是 | 人工智能 | ? |
到 自动 驾驶 汽车 , | 人工智能 | ( |
虽然 科幻 小说 经常 将 | 人工智能 | |
特性 的 机器人 , 但 | 人工智能 | 可以 涵盖 从 谷歌 ( |
人工智能 | 程序 | |
当今 的 | 人工智能 | 被 正确 地 称为 专用 |
人工智能 | ( 或 弱 | |
长期 目标 是 创建 通用 | 人工智能 | ( |
) 。 虽然 专用 | 人工智能 | 能 在 其 特定 的 |
为何 研究 | 人工智能 | 的 安全性 ? |
用 | 人工智能 | , 将 会 发生 些 |
但 我们 更 意识 到 | 人工智能 | 系统 具有 有意 或 无意 |
人工智能 | 如何 可能 制造 危险 ? | |
) 是 为 杀戮而生 的 | 人工智能 | |
存在 于 专用 | 人工智能 | ( |
未 达到 人类 和 | 人工智能 | 目标 的 一致性 ( |
, 而 解决 人类 和 | 人工智能 | 目标 一 |
蚁倒霉 罢了 。 | 人工智能 | 安全 研究 的 一个 关键目 |
预测 人类 智能 级别 的 | 人工智能 | 在 |
人工智能 | 安全 研究 来 加速 对 | |
关于 | 人工智能 | 的 未 来 以及 它 |
制造 出 超越 人类 的 | 人工智能 | 。 事实上 , 历史 充满 |
人工智能 | ||
人 | 人工智能 | 的 研究 。 他们 企图 |
人工智能 | 不 会 在 本世纪 中 | |
我们 与 超越 人类 的 | 人工智能 | 的 距离 进行 了 广泛 |
本世纪 出现 超越 人类 的 | 人工智能 | 的 概率 为 零 , |
是 , 超越 人类 的 | 人工智能 | 永远 不 会 |
会 出现 超越 人类 的 | 人工智能 | 。 例如 , 在 |
人类 的 | 人工智能 | 只 可能 在 数百 年 |
数 担心 超越 人类 的 | 人工智能 | 会 带 来 隐忧 的 |
的 | 人工智能 | 至少 需要 几十 年 才 |
与 人类 智能 级别 的 | 人工智能 | 相关 的 安全 问题 非常 |
误解 是 , 那些 对 人工智能 感到 担忧 和 提倡 | 人工智能 | |
, 有些 人 认为 支持 | 人工智能 | 安全 研究 是 极 具 |
。 事实上 , 为 | 人工智能 | 安全 研究 能 得到 适当 |
是 媒体 的 夸大 使 | 人工智能 | 的 安全 课题 看起 来 |
与 符合 共同 利益 的 | 人工智能 | 运动 的 人 或许 在 |
地 认为 他 不 在乎 | 人工智能 | 的 安全 。 然而 事实上 |
关于 超越 人类 的 | 人工智能 | 风险 的 误解 |
。 根据 定义 , 超级 | 人工智能 | 非常 善于 实现 其 目标 |
, 符合 共同 利益 的 | 人工智能 | 运动 主要 关注 的 不 |
, 他们 关心 的 是 | 人工智能 | 的 目标 与 我们 的 |
一个 超智慧 和 超富裕 的 | 人工智能 | 可以 很 轻易 地 用 |
们 合并 ? 在 | 人工智能 | 的 时代 中 , 身 |