欢迎访问翻译网!

翻译网

您现在的位置是: 首页 > 中文翻译 >详情

图片测试性取向(人工智能相貌测试)

发布时间:2023-12-30 07:09:58 中文翻译 294次 作者:翻译网

据外媒报道,斯坦福大学研究人员开发的一种算法可以根据面部照片确定你的性取向。通过分析35,000 多张面部照片,研究人员根据数据创建了算法模型。研究表明,该算法判断男性性取向的准确度为81%,判断女性性取向的准确度为74%。

最新研究表明,人工智能可以根据人们的脸部照片准确猜测他们是同性恋还是异性恋,这表明机器的“同性恋雷达”能力明显优于人类。

图片测试性取向(人工智能相貌测试)

一项新的研究表明,人工智能可以根据一个人的脸部照片准确识别他是异性恋还是同性恋,并认为机器的同性恋雷达比人类的准确得多。

斯坦福大学的这项研究发现,计算机算法可以正确地区分男同性恋和异性恋男性的正确率分别为81%,女性的正确区分率为74%,这引发了人们对性取向的生物学起源、面部检测技术的伦理问题的质疑。以及此类软件可能侵犯人们的隐私或被滥用于反LGBT 目的。

斯坦福大学的研究发现,计算机算法能够正确区分异性恋和同性恋,准确率为81%,区分女性性取向的准确率为74%。这项研究引发了关于性取向的生物学起源、面部识别技术的伦理问题、以及此类软件可能侵犯个人隐私或滥用同性恋、双性恋和跨性别群体的争议。

这项研究中测试的机器智能基于美国约会网站上公开发布的超过35,000 张面部图像样本,该研究发表在《人格与社会心理学杂志》上,并首先在《经济学人》上报道。研究人员Michal Kosinski 和Yilun Wang 使用“深度神经网络”从图像中提取特征,“深度神经网络”是一种复杂的数学系统,可以学习基于大型数据集分析视觉效果。

该研究首先由《经济学人》报道,并发表在《人格与社会心理学》杂志上。该人工智能分析了美国约会网站上公开发布的超过35,000 个男性和女性面部图像样本。研究人员Mike Kosinski 和Wang Yilu 使用深度神经网络从图像中提取相关性别特征,这是一个复杂的数学系统,可以从大量数据中学习视觉分析。

研究发现,男同性恋者和女同性恋者往往具有“非典型性别”的特征、表达方式和“打扮风格”,这本质上意味着男同性恋者显得更加女性化,反之亦然。数据还确定了某些趋势,包括男同性恋比异性恋男性下巴更窄、鼻子更长、额头更大,而女同性恋比异性恋女性下巴更大、额头更小。

研究发现,男同性恋者和女同性恋者往往具有非典型的性别特征、表达方式和着装风格,这意味着男同性恋者普遍倾向于更加女性化,而女同性恋者则倾向于更加女性化。数据还发现了其他趋势,包括男同性恋比异性恋男性下巴更窄、鼻子更长、额头更宽。同性恋女性比异性恋女性的下巴更宽,额头更窄。

人类法官的表现比算法差得多,男性准确识别方向的准确率只有61%,女性准确识别方向的准确率只有54%。当软件审查每人五张图像时,它甚至更加成功——男性的成功率是91%,女性的成功率是83%。作者写道,从广义上讲,这意味着“面孔包含的有关性取向的信息比人脑所能感知和解释的要多得多”。

人类在这方面的判断表现不如机器算法,其判断男性性取向的准确率仅为61%,女性性取向的准确率仅为54%。当AI软件能够查看测试对象的五张照片时,准确率更高:男性为91%,女性为83%。研究人员在论文中写道,从广义上讲,这意味着人脸包含的有关性取向的信息比人脑所能感知和解释的更多。

该论文表示,这些发现为性取向源于出生前接触某些激素的理论提供了“强有力的支持”,这意味着人们生来就是同性恋,成为酷儿不是一种选择。该机器对女性的成功率较低,这也可能支持女性性取向更具流动性的观点。

文章指出,有一种理论认为,胎儿在出生前所接触的某些激素决定了其性取向,这意味着同性恋是与生俱来的,而不是后天的选择。研究结果为此提供了强有力的支持。机器识别女性性取向的低成功率证实了女性性取向更不稳定的观点。

虽然研究结果在性别和性取向方面存在明显的局限性——研究中没有包括有色人种,也没有考虑跨性别者或双性恋者——但人工智能(AI) 的影响是巨大且令人震惊的。由于社交媒体网站和政府数据库中存储了数十亿人的面部图像,研究人员建议公共数据可用于在未经人们同意的情况下检测人们的性取向。

虽然研究结果显然仅限于性别和性行为,研究中没有包括有色人种,也没有考虑跨性别者和双性恋者,但它已经显示了人工智能的巨大影响,为人类敲响了警钟。警钟。社交网络和政府数据库中存储了数十亿张人物图像,研究人员认为这些公共数据可用于在未经同意的情况下识别人们的身份。

很容易想象配偶对他们怀疑未出柜的伴侣使用该技术,或者青少年对自己或同龄人使用该算法。更可怕的是,继续起诉LGBT 人群的政府可能会利用这项技术来排除和瞄准人群。这意味着构建此类软件并对其进行宣传本身就存在争议,因为人们担心它可能会鼓励有害的应用程序。

可以想象,夫妻可能会使用该技术来测试他们怀疑未出柜的伴侣,而青少年可以使用该算法来识别自己和同龄人的身份。更可怕的是,一些对LGBT群体实施法律制裁的国家可能会利用这项技术让人出柜。这说明开发和发布此类软件的行为本身是有争议的,因为它可能导致有害应用程序的出现。

但作者认为,这项技术已经存在,公开其功能非常重要,以便政府和公司能够主动考虑隐私风险以及保护和监管的必要性。

但该论文的作者表示,这些技术已经存在,公开其功能至关重要,以便政府和公司能够主动关注其隐私风险以及管理和预防的需要。

“这确实令人不安。就像任何新工具一样,如果落入坏人之手,它可能会被用于不良目的,”多伦多大学心理学副教授尼克鲁尔(Nick Rule)说,他发表了有关同性恋雷达的科学研究。 “如果你可以开始根据人们的外表来分析他们,然后识别他们并对他们做可怕的事情,那真的很糟糕。”

多伦多大学心理学教授尼克鲁尔(Nick Ruhl) 发表了有关同性恋雷达的研究。 “这确实令人不安,”他说。 “就像任何新工具一样,如果不怀好意的人得到了它,他们就可以用它来做坏事。”如果我们开始通过外表来分析一个人,据此做出判断,并对他们做出可怕的事情,那就太可怕了。