为什么一个性感的大乳房机器人是媒体和营销在煤矿的金丝雀
时设计一个封面有关人工智能的她的新书,似乎适合特蕾西Spicer给机器learning-powered软件的工作。
洪水的选项立即吐出来有一个共同的主题——big-boobed small-waisted和超级性感的女机器人,这就完全说明了广受好评的记者和作家的观点,AI固有的偏见。
它只会变得更糟,Spicer警告说。
人为的新闻调查,一部分是关于过去的偏见塞壬之歌被内置到人工智能的未来服务,设备和技术。
“我们饱和在人工智能从我们早上醒来,直到晚上我们枕头了,”Spicer本周告诉Mumbrella。
严峻警告AI最终取代我们在工作中,甚至引发巨大的社会动荡近年来越来越响亮,但有迫在眉睫的,更微妙的危险,她说。
“这个人工智能已经将嵌入性别歧视、种族歧视、ablism,所有类型的偏见,更迅速融入社会。”
从“婴儿偏见”青少年的噩梦
在其最初的和原始的形式,AI并不过分人工而不是特别聪明。
首先,你需要的数据。很多很多的数据,通常从多个数据源拼凑起来,一些好,许多不是。
创建“当人工智能,使用大型数据集和最基本刮一切从网上,“Spicer解释道。“也有历史数据集。最大的一个存储库,在加州欧文中心,可以追溯到几十年。”
与internet-sourced东西,得到网络,疣,她说。的偏见和污秽你所想的那样,提供一个从一开始就很有偏见的基础。
历史性的东西,你得到一个场景从1950年代《广告狂人》的工作场所的Don Draper和一群年轻女性为他跑来跑去”。
清晰和占主导地位的模式开始出现在那些0和1。医生是男性和护士是女性。家庭是妈妈,爸爸和两个孩子。每个人都是白色的和异性恋。
“然后,你有一个程序员需要所有的数据,然后将它转变成一个AI,和他们有自己的无意识的偏见内置的算法,“Spicer说。
“那第三步是机器学习,婴儿偏见成为麻烦的少年。我描述机器学习作为一个白人优越主义阴谋论兔子洞。”
字面上,就像微软的不幸的和短暂的聊天机器人一样,茶。它在2016年推出了Twitter上作为一个会话学习实验,在24小时的空间成为了一个满嘴脏话的新纳粹。
在一天之内,一些看似“纯”和无辜的难以想象的破坏,成为一个可怕的形象非常糟糕的人类——每一个部分的总和。
精灵的瓶子
AI并不新鲜,但特别复杂的最新和最令人印象深刻的形式,ChatGPT,已经吸引了世界在过去的几个月。
它的直接使用已经成为全球的头条新闻。
的与迈克尔·舒马赫独家“面试”由德国杂志,不是。珍贵的摄影比赛的致胜的一球机器制作的。一个好莱坞明星主演的电视广告瑞安-雷诺兹聊天机器人,照本宣科。
例子,除了导致疼痛舒马赫的家庭,摄影奖项陪审团的尴尬,和一个安静的一天,对于一个机构文案材料对社会的影响不大。
但这是不可能长时间的方式,和媒体和营销行业应该注意了。
著名机构的美国广告人布莱恩海德堡Loeb&Loeb警告说:“我们不能把魔鬼重新放回瓶子里。”
上个月在一篇专栏广告时代,海德堡说机构和品牌面临许多风险,与科技的许多媒体和营销部门正涌向提供几个,如果任何保护法律的灾难。
有版权的问题。有问号数据使用、储存和保护。尽职调查谁拥有一个工具,他们的背景,甚至金融稳定,是最小的。
和一些客户端协议甚至禁止使用开源软件在生产他们的工作,他补充说。
“显然,AI将用于创建广告资料,”他写道。“但是品牌和机构必须首先确保评估可能的风险和披露其在营销材料使用。
今年3月,营销者Jayme Hill-Gardner,钻石在美国媒体解决方案的首席执行官ChatGPT作家她一篇文章吗为什么AI不利于广告,有趣的结果。
澳大利亚本地,新闻集团的老板迈克尔·米勒表示生成人工智能的迅速崛起必须有补偿的人已经通知其情报工作。
“这些新的人工智能聊天机器人的崛起让人回想起当科技巨头谷歌和元建立的巨额财富和规模等使用别人的创造力和原创内容和货币化没有适当补偿这些创造者或版权所有者,”米勒在澳大利亚写道。
“创造者值得奖励的原创作品被人工智能引擎的突袭的风格和基调不仅记者(仅举几例)音乐家、作家、诗人、历史学家、画家、导演和摄影师。这是享用他们的创造力。”
Spicer说营销和广告创意者视图AI与狂热的兴奋,这是可以理解的。
“他们看到它的潜力在很短的时间内产生像样的东西质量低价格。它可以做很多繁重的工作和枯燥,乏味的东西。但我认为大于收益的问题。
“首先,偏见。如果我们有越来越多的广告只有人的传统形象,加深偏见和歧视。但在一个基本层面,版权是完全未经考验的。”
一个图像或视频由一个AI设计工具是基于其数据集内,数以百万计的小片段的参考图像。这些参考图像是真实的,属于生活和呼吸的创造者。
“他们拥有的人。这是违反版权吗?这不是一个真正的先例。就像陷入一个雷区。
专家说她采访的书两部分的生活是最危险的AI的负面影响——媒体和民主。
“人们已经减少了对媒体的信任。记者与二手车销售人员那里。
“如果你不能确定一个人写你所阅读或正在查看照片或愿景,相信新闻将进一步减少。”
一辆车没有系安全带
本月早些时候,杰弗里•辛顿在科技空间称为人工智能的教父,他不知疲倦的工作几十年来ChatGPT等进步铺平了道路,在谷歌辞职。
在鲜明的《纽约时报》采访时,辛顿承认他后悔他一生的工作,他说:“正常的借口来安慰自己:如果我没有做,别人就会。”
新闻仅仅几个星期之前,1000年领导人在技术和研究发表声明呼吁暂停6个月进一步发展的人工智能系统。
他们请求了暂停,考虑如何避免“重大风险社会和人性”充耳不闻。
她所有的研究和对话,Spicer说,她仍然是“玻璃半满有点加”。
“我不认为这是太迟了。我们可以开始对话,我们可以教育人们。这总是一个很好的途径去改变。
“这让我想起,当汽车在道路上没有安全带释放出来。这是可怕的和危险的,很快事情出错了。
“我们迫切需要发明一个安全带。”
捕获完整的采访特蕾西在本周Mumbrellacast Spicer 31:52标志。
你说