CMOpinion:人工智能和技术——在不断变化的媒体格局中对消费者产生负面影响的潜力
8星能源首席营销官戴安娜•迪•切科在她的Mumbrella定期专栏中探讨了数据经济中的人权问题。
有些文化时刻创造了生活中的并置——以前被认为不酷的东西变成了酷,反之亦然。
合适的例子包括什么时候聪明变得很酷,什么时候吸烟不再很酷,什么时候对气候变化采取行动变得很酷(就像现在,考虑到许多组织和国家大胆承诺追求净零碳排放),或者什么时候庆祝LGBTQ+变得很酷(你注意到在6月份有多少企业的标志穿上了彩虹色吗?)
我们生活在一个尚未完全了解数字足迹如何影响我们的时代。读到这篇文章的大多数人都是在学校或工作中成长起来的,他们学习的所有东西都是数字化的,有些人可能还记得Facebook的推出(我记得!),我们已经从手动流程迁移到了自动化流程。但在过去10-15年出生的一代人对此一无所知;他们是我们这个时代真正的数字原住民。这一群体的数字足迹始于他们的父母“在社交网站上”分享他们的第一张婴儿照片——顺便说一句(但在征得父母同意的情况下)。这是对数据最不警惕的群体。这是一生中最受数字足迹影响的群体。鉴于我们处在一个数据和科技不断发展的经济时代,我有一种明显的感觉,保护你的个人数据和随之而来的人权将会变得很酷。
市场营销永远在变化,永远在复杂。现在,这一景观与以往任何时候一样有趣和复杂。我们争先恐后地使用第一方数据,连第三方cookie都不删除,更不用说苹果公司在保护隐私方面的突袭了。对媒体组合的影响将意味着一对一的目标改变,但我们不确定这将如何发挥,因为未知的“围墙花园”,“隐私沙盒”或用户id。最糟糕的是,我们有一个极其过时的隐私法案(1988年),鉴于政府的运作速度极慢,谁知道要花多长时间才能赶上现实生活。关于这些话题已经有很多文章了,所以如果你不熟悉的话,马上去阅读它们。
这些进步背后的一个主要特征是技术。特别是人工智能(AI)、自动化、机器人、生物识别、泛在计算和物联网(IoT);这些元素无缝地渗透到我们的日常世界中,有时我们甚至不知道。我的观点是,这种技术范式影响了我们如何构建和表达我们的身份。它影响了科技如何对我们做出决定。它还会影响我们在这些环境中的待遇。尽管技术和人工智能提供了新的运营方式、优化效率和提供价值,但它也带来了重大威胁。简而言之,糟糕的技术设计和不负责任的使用人工智能可能会产生重大的社会影响,如歧视、不公平和反乌托邦威胁,如过度监视和滥用政府和/或组织权力。
澳大利亚人权委员会(AHRC)最近提交了关于人权与技术。正如他们所说,“现在是一个关键时刻,澳大利亚正走在成为领先数字经济体的道路上”。他们是对的,但到那里需要多长时间?(希望它不会效仿维多利亚在电动汽车基础设施建设方面的速度).我不会试图总结这份240页的文件,但它让我思考了三件事,我们需要更深入地思考作为营销人员在这一点上。
AI-informed决定
无论你是在私营部门还是公共部门,人工智能的使用越来越普遍——我们在工作中、在社会中以及作为消费者看到了它。人工智能可以帮助实现不可思议的事情——我最喜欢的几个例子是自动驾驶汽车、虚拟助手、聊天机器人和类人机器人——30年前,这些只是未来。但人工智能也会造成破坏——让我们不要忘记Robodebt、微软的Tay和谷歌的图像识别功能。人工智能可以用于许多决策类型,但当它对人做出决策时,必须格外警惕。如果在这种情况下使用人工智能决策,检查并问问自己:它的使用是否负责?这可以解释吗?它的决定如何影响人们?更具体地说,它是否影响了人权?任何有问题的回答都应该引导你重新审视你的AI是如何被监管的。虽然自愿准则正在制定,以帮助管理合作和自我监管,但提倡最佳实践可能是理想的,这样你就领先了三步。 Tip: Start with a human rights framework and assessment tool.
算法的偏见
这是一个数字困境.一方面,算法是用来帮助解决问题的数学规则和动作。另一方面,当被偏见渗透时,算法会以不同的偏好对待群体,而没有理由。虽然通常是统计数据,但算法偏差的结果可能包括不公平、不平等和歧视。其后果是:对人权产生不利影响。因此,如果您正在使用算法,请仔细查看您的数据集,并问问自己:算法是如何被训练的?你是否有干净的、相关的、经过验证的数据来进行培训?谁负责算法决策,他们继承的个人偏见是否会影响算法?你有建立人类监督机制吗?采取了哪些措施来减少歧视和不公平的风险?除了避免由于数据质量和类型而导致的算法歧视之外,其目的是最大限度地提高准确性和最小化偏差。 Like humans, algorithms are not perfect, so they too need some help to get things right.
数据隐私
数据从未像现在这样重要或有价值。在数据经济中,我们的每一个动作和接触的每一个设备都会不断产生大量数据。全球90%的数据都是在过去两年内创建的预计此后每两年翻一番)。消费者知道他们的数据是如何被使用的(再营销、目标定位),并要求更多的隐私、透明度、选择和控制。我们也有同意的概念——这是欧洲通用数据保护条例(GDPR)的一个特色法律基础,很可能会影响营销运作,特别是如果你为一个全球品牌工作。但即使是同意可以改变的。
让我们重新审视一下前面提到的年轻一代,想想他们在拥有手机之前的数字足迹(第一次拥有手机的年龄已经慢慢下降到12岁)。在此期间,他们的照片主要是由父母在没有孩子明确同意的情况下在社交媒体平台上分享的——这将成为未来的问题吗?当一个孩子最终获得了一部手机,他们的新足迹和前移动足迹在数字领域相遇时,数据匹配之神会高兴起来。我们还不知道的是,这些数据的积累会如何影响他们。它能被用来对他们做出决定吗?它是收集和挖掘出来的,从中作出推论吗?他们会因为这些推论而受到不公平的对待或歧视吗?(你知道我要做什么了.....)
那么,如果你在收集数据,你有什么用吗?你是为了这个目的而使用它吗?如果你的数据被泄露,你有应对危机的计划吗?数据隐私是首要任务吗?应该是这样。随着我们在不断变化的环境中前进,这不是广告或目标定位的终结,而是对数据隐私的平庸态度的终结(2020年,OAIC报告了1000多起数据泄露事件——这个数字还在增加,这根本不够好)。管理个人数据并齐心协力保护个人数据是每个人的责任。它需要从“个性化和改进的客户体验”工具提升为“敏感的法律信息”——也许这样的命名变化将有助于提高对其重要性的认识。
如果你没有注意到,这三个方面又回到了一个潜在的运动:人权在技术中的重要性。虽然这只是一个简短的概述,还有很多东西需要讨论和考虑,但我的目的是开启一场对话,提供一个尚未普及的视角,一个优先考虑技术对人类的影响的视角——对你、你的家人、你的同事和你的父母。如果它变成了很酷的倡导以人权的方式对待新技术?
科技不会消失。AHRC在宣称“新技术正在重塑我们的世界”时,措辞完美。它们带来了前所未有的机遇和威胁,特别是对我们的人权而言。”第二部分让我感到不安,因为我认为我们对技术的使用应该是合乎道德的,以人为本的,以避免违反人权法、联合国原则和人民的基本自由。你不?
所以,在我们等待一个独立的人工智能安全专员被任命的同时(如果这个建议越过了界限),要积极主动,开始思考你的业务/品牌/部门如何管理数据和技术。对我们所有人来说,关键问题是如何在数字广告和数据隐私之间找到平衡?我还没完全想明白,但如果你想明白了,请告诉我。
戴安娜·迪·切科是8星能源公司的首席营销官。CMOpinion是Mumbrella的常规专栏。