设为首页 | 加入收藏

繁体版简体版

 
当前位置: 首页 » 资讯 » 科技 » 正文

重新定义人工智能的发展,让决策过程变得更透明和可信任

放大字体  缩小字体 发布日期:2018-01-20  浏览次数:17935
核心提示:  早期的人工智能阶段,我们只是通过数据集模型的训练来抓取表面信息。模型可以经过训练以建立基础信息和上下文之前的联系,并能从过去的数据中自我学习,但随着我们能获得更多高质量的数据后,模型输出的数据也变
  早期的人工智能阶段,我们只是通过数据集模型的训练来抓取表面信息。模型可以经过训练以建立基础信息和上下文之前的联系,并能从过去的数据中自我学习,但随着我们能获得更多高质量的数据后,模型输出的数据也变得更加丰富。因此,我们还需要深入了解模型是如何进行决策、如何提供建议以及如何能快速自我触发等行为。

美国国防部高级研究计划局(DARPA)作为国防部的一部分,主要负责开发供军队使用的新兴技术。去年,美国国防部高级研究计划局创建了一个名为"可破解的人工智能(XAI)"的新程序,皆在创建一套机器学习技术,其中包括:

提供更多可破译的模型,同时保持高水平的机器自我学习(预测准确性);

使用户能够理解、信任和有效管理新一代人工智能。

在很长一段时间里,人工智能都被认为是一个无法被破解的黑匣子,没有人能解释算法是如何自我做出决定并提供建议的。因此,这也为人工智能黑匣子的评估和信任带来了一个全新层次的理解和挑战。组织机构和个人都相信算法和人工智能是可记录且真实性的一个智能系统,因此,人工智能自然也有责任和义务让决策过程变得更透明和可信任。

 

0条 [查看全部]  相关评论
 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐资讯
点击排行