人工智能研究人员希望通过要求用户使用ID来解决问题
人工智能研究者忧心忡忡,担心AI机器人终将控制网络,像数字入侵物种一样蔓延开来。与其试图限制机器人以及AI生成内容的泛滥,一支团队决定走相反的方向。
在最近发表的一篇预印本论文中,几十名研究者倡导一种系统,即人类需要由另一名人类亲自确认其人性,才能获得“人性凭证”。
这个宏伟的想法似乎是在创造一个系统,让某人可以在不透露身份或更多信息的情况下证明自己是人类。对于那些在加密社区的人来说,这听起来可能很熟悉,因为这项研究基于“人性证明”区块链技术。
数字化验证
通常,像Netflix或Xbox Game Pass这样的付费服务,会依赖用户的金融机构来执行验证服务。这不允许匿名性,但对大多数人来说,这没什么了不起。这通常被认为是做生意的成本之一。
而像匿名论坛这样的服务,不能依赖用户的支付作为他们是人类或至少是品行良好的非人类客户证明,不得不采取措施限制机器人和重复账户。
截至2024年8月,例如,ChatGPT的防范措施可能会阻止它被用于注册多个免费的Reddit账户。一些AI可以超越“CAPTCHA”式的人文检测,但要让一个AI能够按照验证电子邮件地址和继续设置过程以开设账户的步骤,则需要付出巨大的努力。
然而,这个团队提出的主要论点是——团队成员包括来自OpenAI、微软、a16z加密以及哈佛学者协会、牛津和麻省理工学院的众多专家——目前的限制只能持续这么久。
也许在几年内,人类可能会面临这样一个现实:如果不能面对面交换眼神,就无法确定一个人是在与人交流,还是在与机器人交流。
伪匿名
研究人员正在倡导开发一个系统,指定某些组织或设施为发行者。这些发行者将雇佣人类来确认个人的为人。一旦通过验证,发行者将颁发给个人资格证书。据推测,发行者可能会限制跟踪这些资格证书的使用情况。不过,如何构建一个能够抵御网络攻击和量子辅助解密即将到来的威胁的稳固系统还不清楚。
在另一方,有兴趣为经过验证的人类提供服务的企业可以选择仅向持有资格证书的人类发行账户。表面上,这将限制每个人只能有一个账户,使得机器人无法获取这些服务。
根据论文,研究范围不包括确定哪种集中式伪匿名方法最有效,该研究也没有解决这种方案提出的一系列潜在问题。然而,团队承认这些挑战,并呼吁进一步研究。
相关:美国金融服务委员会领导人希望为AI设立“监管沙盒”
相关:美国金融服务委员会领导人希望为AI设立“监管沙盒”