AI正在洞察人类每天在用AI做什么
作者:微信文章出品 | 湛卢实验室
首图 | AI生成编译 | Liftman
随着ChatGPT、Claude等AI模型的普及,越来越多人开始使用这类产品。但是作为AI公司,却面临一个两难的问题:
一方面,他们需要了解用户都在用AI做什么,这样才能及时发现有人用AI做坏事;同时改进产品功能以及提供更好的服务。另一方面,他们又必须保护用户隐私,不能随便查看用户和AI的聊天内容。
那怎么办呢?Claude母公司Anthropic想出了一个好办法——他们开发了一个叫"Clio"的AI信息统计收集工具。
Clio是什么?
简单来说,它就像一个智能分析员,可以自动查看大量用户和AI的对话,但不会泄露具体内容。
它的工作方式是:
1. 去除个人隐私信息,背景信息,把每个对话的基本骨干元信息提取出来。
2. 然后把相似的对话自动归类,比如:编程问题、文学创作、游戏开发等。
3. 最后给每类对话起个名字和写个总结,但不会包含任何个人隐私信息。
Clio发现了什么?
通过Clio,Anthropic发现了很多有趣的使用情况。
在所有语言中,用户与Claude最常见的对话类型。圆圈的面积对应于对话的百分比;这些标题是Clio在分析了100万个随机选择的对话后生成的摘要
最常见的用途是编程相关的(占10%以上):
找代码中的错误
学习编程知识
理解各种编程概念
其次是教育用途(7%以上):
学生用来做作业
老师用来备课
自学各种知识
再次是商业用途(接近6%):
写商务邮件
分析商业数据
制定经营策略
还有很多意想不到的用途:
有人用来解释做的梦
有人用来分析足球比赛
有人用来玩龙与地下城游戏
甚至有人让AI数"strawberry"这个词里有几个字母"r"
不同语言的用户也有不同的使用偏好:
西班牙语用户更喜欢用来分析经济数据、如何致富、儿童健康和发展问题等
中文用户更喜欢用来编程和写作(尤其是惊悚和玄幻类型)
日语用户更喜欢用来创作日漫内容、研究老龄护理等
Clio显示,三种选定语言中出现频率更高的会话主题(与该语言的基本比率相比)
帮助Anthropic发现了一些安全问题
找出了一些团伙在滥用AI:
有人用机器人大量生成垃圾内容
有人试图非法转售AI服务
在重要时期提供额外保护:
选举期间防止AI被用来散布假消息
新功能上线时及时发现潜在问题
减少错误判断:
避免把正常用户当成坏人
避免漏掉真正的违规行为
当然,开发这样的工具也要考虑很多道德问题:比如如何避免误判导致冤枉用户?如何防止工具本身被滥用?如何确保真正保护用户隐私?如何让用户信任这个系统?
Anthropic通过以下方式解决这些问题:
不完全依赖自动化,有人工复核
严格控制使用权限
定期检查隐私保护措施
公开透明地介绍系统运作方式
总的来说,Clio展示了一种既能保护用户隐私,又能确保AI安全使用的新方法。这对整个AI行业都很有启发意义。
来个“分享、点赞、在看”
页:
[1]