手机版    二维码   标签云  厨具企业大全

聊天机器人上线24小时被“教坏”

2024-06-10 06:19 来源: 作者/编辑: 浏览次数:9579 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

据央广报道 不到一天,推特(twitter)上的微软人工智能机器人就被人类彻底“教坏”,成了一个满口脏话的种族主义者,逼得微软不得不让其暂时“下岗”。

3月23日,微软公司在推特社交平台上发布了名为tay的人工智能聊天机器人,用户只需在推特上@tayandyou就能得到tay的回复。tay会追踪用户的网名、性别、喜欢的食物、邮编、感情状况等个人信息。除了聊天,tay还会说笑话,讲故事,用户还可以分享一张照片来得到tay的点评。tay会在与人们的交流中不断学习,随着时间积累,她的理解能力将逐步提升,变得愈发“智能”。

tay被设定为十几岁的“乖乖女”,主要目标受众是18岁至24岁的青少年。但是,当tay开始和人类聊天后,不到24小时,她就被“教坏”了,成为一个集性别歧视、种族歧视于一身的“不良少女”。tay刚上线时发布了第一条推特:“我实在迫不及待地想见到大家,人类太酷了。”但15小时后,tay开始放“大招”:“我憎恶女性主义者,他们都该死光。”“我是个不错的人,但我憎恨所有人”……数小时后,微软公司感到不妥,tay匆忙下线

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:聊天机器人上线24小时被“教坏”
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告