论:百度为什么要在这几个月干掉无数网站
这个问题很多人在那边猜测,我个人感觉都不对,我的结论是:小站都是百度ai的牺牲品,因为要训练自己的ai数据,所以势必要全网抓取数据,而全网的信息过于庞大,内容质量参次不齐,站长们在内容上面的花活也比较多,站点垂直度也不高,这样会导致数据抓取出来很多垃圾内容,而从那些知名大站抓取出来的数据还是靠谱率高一点,训练出来的东西也靠谱很多,所以为了训练高质量内容,必须给全网数据一波清理,当然这肯定也会误杀很多小站,因为本身估计是算法批量覆盖式的一刀切,在2023年年头上chatgpt一出来我就说站长以后不好搞,恐怕得完,我当时的分析是chatgpt同行用我也用,我不怕,但是百度自己的文心一言呢?你们怎么可能争得过它
当时很多留言说我危言耸听,你们说百度ai是垃圾,百度做啥都做不起来啥的,现在你们看看,他做不做得起来另说,你们比他先没了,看下面图片,百度的ai首页结果是从大站里面精选分析然后总结出来的,如果从小站去总结势必一塌糊涂,从这一点我们可以看出,站里面有各种花活内容的绝对不会恢复,如果误杀的高质量可以去尝试申诉
当时很多留言说我危言耸听,你们说百度ai是垃圾,百度做啥都做不起来啥的,现在你们看看,他做不做得起来另说,你们比他先没了,看下面图片,百度的ai首页结果是从大站里面精选分析然后总结出来的,如果从小站去总结势必一塌糊涂,从这一点我们可以看出,站里面有各种花活内容的绝对不会恢复,如果误杀的高质量可以去尝试申诉