事情还要从去年6月发布的一些视频说起。据“今日俄罗斯”(RT)4日报道,英国《每日邮报》当时发布了一段视频,其中包括两起美国黑人男子与白人发生争执的片段。
RT报道截图
然而在这段视频下方,脸书自动生成的话题推荐语却出了问题。
报道称,脸书前内容设计经理达西·格罗夫说,一位朋友给她发了一张视频截图。截图中的主人公是一名黑人男性,而脸书自动生成的推荐语却显示:“继续观看灵长类动物的视频?”值得注意的是,视频内容并没有涉及任何猴子、大猩猩、黑猩猩等。
脸书截图
报道提到,格罗夫在一个面向脸书现任和前任员工的产品反馈论坛上发布了这张有问题的截图。一名产品经理随后称此事“不可接受”,并承诺将对该事件进行调查。
RT称,脸书的这一推荐也令不少观众感到震惊。脸书公司9月3日就此事致歉,在一份面向媒体的声明中,脸书公司表示,“我们向任何可能看到这些具有冒犯性的推荐的人道歉。”声明还称,整个话题推荐功能已被停用。
“正如我们已经说过的,虽然我们已经对我们的人工智能进行了改进,但我们知道它并不完美,我们还有更多的路要走微单飞单 。”声明如此说道。
科技巨头使用算法技术导致出现尴尬错误的情况并不只出现在脸书平台上。RT介绍称,2015年,谷歌的照片应用程序曾给一张黑人照片贴上“大猩猩”标签,随后谷歌也为此事道歉。