LinkedIn正在面临信任和道德危机与人工智能?
LinkedIn正在迅速整合广泛的进入platfrom GPT-powered特性。苏帕克,敢集团的老板,可以看到高峰可能会在灾难结束。
LinkedIn是世界上最大的专业网络,今年20周年纪念——一个里程碑,恰逢爆炸ChatGPT OpenAI, LinkedIn的所有者微软已经投资了100亿美元。
平台的使命宣言是:“连接世界专业人士让他们更有效率的和成功的。
成员的核心价值主张是进行真正的对话,社区和知识发展经济的机会。
成功的核从信任开始在全球9.3亿和1300万年澳大利亚成员。虽然有超过5800万的注册公司在LinkedIn,中心的联系和对话,来自个体成员。
我是一个巨大的LinkedIn和接受改变,AI的倡导者。然而,最近的LinkedIn和外部AI发展提高信任和道德需要审查的问题。
州玩
信任被定义为一个坚定的信念在可靠性、真理,或某人或某事的能力。但在信托股权社会化媒体中表现不佳,与2023年Edelman信任晴雨表报告发现的最值得信赖的行业为44%。
其他全球调查率LinkedIn最信任的平台。和其他社交媒体一样,爬的影响,可见性和收入带来了肆无忌惮的与伦理之间消除细纹。
假资料,支付的追随者和参与和狡猾的做法,其他成员在LinkedIn也同样普遍。
生成AI和ChatGPT将加速操纵和虚假的范围的影响。
内容和评论人工智能操作
内容和参与/评论是成功的关键支柱与多个责任但被破坏。
正如所料,LinkedIn正在迅速整合各种ChatGPT-powered特性。最新的,人工智能发电机特性,主任于上个月由凯伦巴鲁克产品。
虽然仍在测试和推广模式,通过使用一个30-word提示,成员立即创建AI的意见,建议和经验。这将鼓励成员的专业知识、歪曲真实的内容和下降的漩涡重复的平庸。
但更令人不安的是生成的泛滥和增加吸收AI评论的应用。人工智能与人工智能是信任,威胁安全,真正的关系。
应用程序的示例包括从事人工智能;BrandEngine。人工智能and Tappy. The latter is particularly pernicious with a tone option of ‘let’s argue’.
很多卖家LinkedIn的存在,千真万确地推销自己的“禁止”服务,LinkedIn看似忽略。
用户协议明确禁止使用第三方软件,扩展,机器人和浏览器插件生成的人工智能应用程序和工具坐置评。
专业的社会政策进一步状态,成员必须努力创造原创内容,真实地回应别人的内容,而不是伪造自己的信息。
意见行业领导者
我问一些行业领导者多产的LinkedIn用户分享他们的思想在这些人工智能的进展:
创始人马克Ritson迷你MBA市场:“愚蠢,愚蠢的想法。LinkedIn的目的是连接到其他专业人士和他们的真实想法和实际情况。允许,不要鼓励用户允许计算机与人工洪水app,令人毛骨悚然的,愚蠢的,预计垃圾邮件是一个巨大的穿孔在公司自己的头。谁使这个调用是一个白痴。”
特蕾西Spicer、作者、人造——过去的偏见是如何被构建到未来:“这是一个关于移动。ChatGPT有可能减少在工作场所的杂活的负担。然而,漏洞百出,充满偏见和偏见。作为用户,我们需要关注我们的批判性思维技能de-biasing这个工具,尽可能多。然而,美国科技巨头预计免费,无偿劳动。大型科技需要认真对待偏见和股票,在释放这种技术之前公众。”
汤姆·古德温数码转型顾问和作者:“这些天每个人都想建立个人品牌,把听到但没有人愿意花时间和精力去思考,这样我们各种各样的满意所需零工作。人们没能意识到的唯一指标,数量没有印象,但印象你的评论。往往是什么,除非一个人可以有意见。可以认为这是一种确保新的声音和观念得到传播那些缺乏自信或书面练习。或者,你可以看到它作为一种果酱提要与更多的最小公分母平均化涉水。”
爱丽丝阿尔梅达,MD, Almedia见解:“我不舒服AI / ChatGPT用于内容创建或生成评论 LinkedIn没有使用免责声明。作为人类的元素是LinkedIn的经验的一部分,我想知道,我写了一篇文章或评论的人只是一个人。 我去LinkedIn从人的经验和知识。 我想知道挑战我的意见来自于自己的心灵,而不是从他们在ChatGPT进入。 保持真诚和真实的,否则未来会议的人可能是一个主要的失望到另一个人。”
法律方面的考虑
我问费边霍顿博士,律师和澳大拉西亚的网络法律研究所的主席提供合法的镜头。他特蕾西Spicer关切的嵌入式偏见在人工智能生成的内容。
他建议有许多问题需要考虑包括数据保护和隐私、知识产权,问题源于歧视性的或有偏见的内容和特别,误导或错误的信息。
澳大利亚消费者法律保护对行为误导或欺骗性的或可能误导或欺骗。 不真实的或夸大宣传产品或服务可能违反商业或消费法律。
霍顿博士告诫人们回顾,确保人工智能生成的内容不会导致法律后果方面的诽谤、恐吓或仇恨言论。
虽然LinkedIn供应自动创作工具,用户仍负责发布的内容概要。LinkedIn的用户应该熟悉的流行语的服务条款和相关法律在其管辖范围内,以确保他们不违反合同义务或任何民事或刑事法律。
最终的包装
在每一个接触点人类驱动决策,个人品牌和道德指南针。
在一个无情的变化和动荡的世界里,信任和道德应该是专业的可持续发展和成功的货币,LinkedIn和表外。
苏·帕克是澳大利亚的老板敢集团——一个通信、LinkedIn和事业品牌专家。
爱丽丝:“我想知道,挑战我的意见来自于自己的心灵,而不是从他们进入ChatGPT”
又有什么区别呢,如果挑战你的观点是符合逻辑的、合理的吗?至少AI将一个有凝聚力的论点,剥夺了任何个人偏见。
用户ID不验证。
你说