不忘初心 牢记使命
网络强国 科技创新
2023年5月11日
《自然》发表的一篇评论文章指出,研究人员必须建立一门科学来研究人类—算法行为的集体模式,以便更好地监管适应性算法,并确保它们对社会发挥安全有益的作用。
自适应算法是能根据人类集体行为不断变化的算法,比如能根据多个变化因素(包括宣传、反宣传以及共同利益)为社交媒体推送筛选个性化内容的算法。这些算法已被发现与产生广泛影响有关,包括社会运动和股市闪电崩盘。
在美国最高法院今年晚些时候将审理的一起案件中,优兔(YouTube)的母公司谷歌被起诉,因为其视频的适应性算法推送使恐怖分子变得激进的内容,而谷歌对此负有责任。这起案件迫使人们思考如何监管会根据人类行为发生改变的算法。
美国康奈尔大学科学家纳森·马提亚斯在文中表示:“随着AI系统的应用日渐广泛,人类的生活与适应性算法将紧密交织。”人类与适应性算法之间的相互影响会形成一个复杂系统,在这个系统中,任何部分的微小变化,如算法调整,都会导致非预期的后果。
马提亚斯提出了完善人类—算法集体行为这门科学的多个步骤,包括对行为模式的分类和预测,以及避免产生危害的有效干预。由于算法的影响通常由民众和记者最早察觉,作者因而认为这些群体应被纳入这类研究中。
文章还指出,适应性算法或对社会产生深远的益处,不过,“这里的前提是必须用可靠的研究对算法进行设计和监管”。(记者张梦然)
咨询热线
地址:深圳市龙岗区坂田街道坂田国际中心E栋二层209房