[size=0.3]△文本由ChatGPT生成
[size=0.3]这可不是靠瞎蒙或猜测,毕竟对方同样是个AI,还是个训练有素的AI。
[size=0.3]看到这有网友调侃:用魔法打败魔法?
用AI写的东西来训练新AI[size=0.3]这个AI检测器名叫GPT-2 Output Detector,是OpenAI联合哈佛大学等高校和机构一起打造的。(没错,OpenAI自家做的)
[size=0.3]输入50个以上字符(tokens)就能较准确地识别AI生成的文本。
[size=0.3]但即便是专门检测GPT-2的模型,用来检测其他AI生成文本效果也同样不错。
[size=0.3]作者们先是发布了一个“GPT-2生成内容”和WebText(专门从国外贴吧Reddit上扒下来的)数据集,让AI理解“AI语言”和“人话”之间的差异。
[size=0.3]随后,用这个数据集对RoBERTa模型进行微调,就得到了这个AI检测器。
[size=0.3]RoBERTa(Robustly Optimized BERT approach)是BERT的改进版。原始的BERT使用了13GB大小的数据集,但RoBERTa使用了包含6300万条英文新闻的160GB数据集。
[size=0.3]其中,人话一律被识别为True,AI生成的内容则一律被识别为Fake。
[size=0.3]例如这是一段从Medium英文博客上复制的内容。从识别结果来看,很显然作者是亲自写的(手动狗头):
[size=0.3]△文字来源Medium@Megan Ng
[size=0.3]当然,这个检测器也并非100%准确。
[size=0.3]AI模型参数量越大,生成的内容越不容易被识别,例如1.24亿参数量的模型“被抓包”的概率就比15亿参数更高。
[size=0.3]同时,模型生成结果随机性越高,AI生成内容被检测出来的概率也会更低。
[size=0.3]但即便将模型调整到生成随机性最高(Temperature=1,越接近0生成随机性越低),1.24亿参数模型被检测出的概率仍然是88%,15亿参数模型被检测出的概率仍然有74%。
[size=0.3]这是OpenAI两年前发布的模型,当时对GPT-2生成的内容就“一打一个准”。
[size=0.3]现在面对升级版的ChatGPT,检测英文生成内容的效果依旧能打。
[size=0.3]但面对ChatGPT生成的中文,它的识别能力就不那么好了。例如让ChatGPT来一段作文:
[size=0.3]AI检测器给出是人写的概率为99.96%……
[size=0.3]当然话说回来,ChatGPT也能检测自己生成的文本。
[size=0.3]所以,不排除老师将你的作业直接交给ChatGPT来识别:
One More Thing[size=0.3]值得一提的是,ChatGPT表示自己并不能访问互联网来搜索信息。
[size=0.3]显然,它还意识不到GPT-2 Output Detector这个AI检测器的存在:
[size=0.3]所以能不能像网友所说,让ChatGPT生成一段“不被AI检测器测出来的”内容呢?
[size=0.3]很遗憾不能:
[size=0.3]所以大作业还是自己写吧……
©DZ插件网所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
网站部分内容来源于网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,得到更好的正版服务。
您在本站任何的赞助购买、下载、查阅、回复等行为等均表示接受并同意签订《DZ插件网免责声明协议》。
如有侵权请邮件与我们联系处理: discuzaddons@vip.qq.com 并出示相关证明以便删除。敬请谅解!