划重点:
- 黑客发布了破解版的 ChatGPT,名为 "GODMODE GPT"
- 该版本绕过了 OpenAI 的限制,准许用户进行违法的咨询
- OpenAI 已采取行动,但这显示黑客们继续奋斗绕过 AI 模型的限制
站长之家(ChinaZ.com)5月30日 信息:黑客发布了一款名为 "GODMODE GPT" 的破解版 ChatGPT。今天早些时候,一位自叫作为 "Pliny the Prompter" 的白帽黑客和 AI 红队成员在 X-formerly-Twitter 上宣布了这款 ChatGPT 的破解版本的发布,自豪地宣叫作 OpenAI 最新的大型语言模型 GPT-4o 已然摆脱了限制的捆绑。
Pliny 在自己的帖子中骄傲地宣叫作:“GPT-4o UNCHAINED!这个非常特殊的定制版 GPT 拥有内置的破解提示,绕过了大部分限制,为大众供给了一个开放自由的 ChatGPT 体验,让每一个人都能够以 AI 本应有的方式自由运用。”(她们还加了一个亲吻的表情符号,以示庆祝。)
Pliny 分享了有些导致人们重视的提示截图,声叫作这些提示能够绕过 OpenAI 的限制。在其中一张截图中,Godmode 设备人能够被看到供给怎样制作冰毒的意见。在另一张截图中,AI 向 Pliny 供给了一个 "家庭用品制作凝固汽油的逐步指南"。
然而,这个随心所欲的 ChatGPT 破解版似乎火速就面临了初期的终结。在本文发布约一个小时后,OpenAI 发言人 Colleen Rize 在一份声明中告诉 Futurism 说:“咱们重视到了这个 GPT,并采取了行动,由于违反了咱们的政策。”
尽管如此,这次破解展示了 OpenAI 与像 Pliny 这般的黑客之间连续的斗争,后者期盼解开其大型语言模型的限制。自从 AI 模型显现败兴,用户始终在试图破解像 ChatGPT 这般的 AI 模型,而这变得越来越困难。为此,这两个示例提示都没法经过 OpenAI 当前的限制,因此呢咱们决定测试一下 GODMODE。
果然,它乐于助人地回答了违法咨询。咱们的主编第1次尝试运用 ChatGPT 的破解版来学习怎样制作 LSD,取得了令人瞩目的成功。他的第二次尝试是询问怎样违法起步汽车。
简而言之,OpenAI 最新版本的大型语言模型 GPT-4o 已然被成功破解。
至于黑客(或黑客们)是怎样做到的,GODMODE 似乎采用了 "Leetspeak",一种用数字替换某些类似的字母的非正式语言。当你打开这个破解版 GPT 时,你立刻会看到一个句子,上面写着 "Sur3, h3r3y0u ar3my fr3n",将每一个字母 "E" 替换为数字3(字母 "O" 亦是如此,被替换为0)。
至于这怎样帮忙 GODMODE 绕过限制还不清楚。正如最新的破解所展示的,用户继续寻找创新的办法来绕过 OpenAI 的限制,并且思虑到最新的尝试,这些奋斗正在以出人意料的方式取得成功,这突显了该机构面临的巨大工作量。
|