[摘要]当一家有全球影响力的公司,乐于讨论人工智能技术使用的道德问题时,我们应该庆幸,因为至少看起来,事情在朝对的方向发展。 详情请咨询沈阳幼师培训学校。
据了解,当一家有全球影响力的公司,乐于讨论人工智能技术使用的道德问题时,我们应该庆幸,因为至少看起来,事情在朝对的方向发展。
当地时间6月7日,在千呼万唤中,谷歌终于通过官方博客发布了关于使用人工智能(AI)的七项指导原则。其中包括不会将AI技术应用于开发武器,不会违反人权准则将AI用于监视和收集信息,避免AI造成或加剧社会不公等。
之所以说千呼万唤,原因是谷歌发布这套指导原则的过程一波三折。事件的起因是谷歌与美国军方合作的Maven项目。谷歌在该项目中向美国国防部提供用于机器学习应用的TensorFlow API接口,以帮助军事分析人员检测图像中的物体。
但双方的合作立刻引起了谷歌内部员工、媒体、学术界,甚至部分工业界的指责。他们认为谷歌与美国军方的合作,有可能让AI技术成为军方的帮凶,这与谷歌一直倡导的“不作恶”公司文化相悖。
据了解,谷歌公司内部也因此掀起了离职潮,并约有4000名员工写了请愿信,要求谷歌公司高层停止与美国军方的合作。同时,外部的舆论也让谷歌倍感压力。
在这种情况下,谷歌做出了一系列缓解内外部压力的举措。首先,谷歌召开了员工大会,谷歌云CEO黛安·格林向员工解释了这份与美国军方的合同仅价值900万美元,且这项目不是为了攻击目的。其次,谷歌宣布将在2019年,Maven项目合同到期后,停止与美国军方合作,不再寻求新合同。第三,谷歌终于在拖了近一年的时间后,推出了AI的指导原则,兑现了项目签订时的承诺。
更多资讯请咨询沈阳师联幼师教育,网址: