人工智能(ai)已经变得越来越智能,甚至可以预测未来。例如,警察可以使用人工智能提前预测犯罪的时间或地点,医生可以使用人工智能预测患者最有可能患心脏病或中风。甚至研究人员也试图给人工智能增加更多的想象力,因为它可以计划意想不到的结果。

一般来说,公共生活中的许多决策都需要提前做出。但是随着ai的进步,它的预测比人类好。然而,随着人工智能技术的发展,我们似乎仍然对人工智能缺乏信心。最近的研究表明,人们不喜欢依赖人工智能,更喜欢相信人类专家,即使有些专家是错的。

你相信ai吗?

ibm的超级计算机项目沃森给出的大多数癌症治疗方案与医生的建议非常一致。在印度进行的一项研究表明,沃森在肺癌治疗中给出的治疗建议有96%与医生的计划一致;直肠癌和结肠癌的治疗中,与医嘱的符合率分别高达93%和81%。此外,沃森在临床试验中对乳腺癌和肺癌患者的筛查比人类快78%。到目前为止,根据他们的计算,已经有超过14000名患者收到了相关的治疗意见。

[科技界] 我们为什么不愿意相信AI

但是当医生与沃森互动时,他们发现自己处于一个相当复杂的情况。一方面,沃森为治疗提供指导,但事实上,医生并没有看到多少价值。由于沃森的指导,医生们早就知道了。另一方面,如果沃森提出反对专家的意见和建议,医生通常会认为沃森是无能的。因为沃森不能解释为什么他的治疗是可行的,他的机器学习算法没有被完全理解,这导致了更多的不信任和怀疑。最终,许多医生无视人工智能的建议,坚持自己的专业知识。

[科技界] 我们为什么不愿意相信AI

沃森的问题是医生根本不信任它。人类的信任往往建立在对可靠性经验的理解上,这有助于创造一种安全的心理感受。Ai是一个全新的东西,大部分人都不熟悉。所以,即使在技术上可以解释(并不总是如此),ai的决策过程通常也是大多数人无法理解的。不理解的后果就是会导致焦虑,让人类觉得自己在失去控制。

社会上有新的ai分歧吗?

如果我们想让人工智能真正造福于人民,我们需要找到一种方法让人工智能获得人民的信任。当然,要做到这一点,首先要知道目前人们对ai是什么态度。面对有望逐渐落地的ai,社会上似乎也有分歧。

在向不同的人播放了与ai相关的科幻电影后,一些外国专家问他们关于人工智能和自动化的问题。他们发现乐观主义者倾向于积极拥抱人工智能。怀疑论者变得更加极端,甚至更加谨慎,不欢迎人工智能。

这说明人们对ai的偏见是根深蒂固的个人倾向。随着越来越多的媒体参与到对ai的报道中,正面和负面的观点也在游戏中,这将直接影响人们对ai的认知。有人认为ai会让生活更美好,有人认为ai会让社会灭亡。

要解决ai信任危机,必须保持透明

但无论如何,ai还是要往前走。要解决ai信任危机,必须从多方面入手。目前,一些专家已经开发了一些方法来提高人们对人工智能的信任。最基本的就是尽快习惯ai。未来我们的生活中使用ai越多,我们就越信任AI。就像互联网出现的时候,很多人都持怀疑态度。但是,随着互联网的全面落地,人们一点戒心都没有了。

另一个解决方案是打开机器学习算法的黑盒,让它更加透明,展示ai是如何工作的。这样,人们才能对它有更好的了解。虽然大多数人不需要了解ai系统复杂的内部运作,但如果展示更多关键的运作信息,人们会更开放地接受ai,融入生活。

不是我们不愿意相信ai,只是一种对新事物的本能恐惧,就像原始部落的人还认为相机可以吸走灵魂一样。随着ai的逐渐普及,关于它的问题越来越少。

标题:[科技界] 我们为什么不愿意相信AI

地址:http://www.heliu2.cn/xw/7188.html