网站被黑了怎么办?
时间:2023年08月09日
/来源:网络
/编辑:佚名
网站被黑现在越来越常见,不仅中国,全世界都一样。Google官方博客17年3月份的一篇帖子提到,被黑的网站数目2016年比2015年增加了32%,而且没有减缓的趋势。扫描端口、撞密码、利用CMS漏洞注入之类的太多太多了。
自己网站被黑了怎么办?怎样恢复呢?可能出现的情况非常多,这里只能简单举个例子。
首先,注册百度站长平台、Google Search Console是必须的,就算是中文网站,没什么谷歌流量,也要注册Google Search Console,Google如果发现网站被黑,会在Search Console中给站长留言的。
然后,经常在百度、Google用site:指令,以及“site:domain+敏感关键词”看看自己网站有没有什么不该出现的标题和描述。敏感关键词可以从色情、赌博开始,再往医疗、法律服务之类的扩展。
如果自己网站被黑了,除了浏览器UA改为百度蜘蛛看看是否有cloaking,还要在百度站长平台的抓取诊断部分,用真正的百度蜘蛛抓一下,看看内容是否异常。有的网站用程序检测用户IP地址,然后反查IP是否是真的百度蜘蛛,所以上面使用的改浏览器UA的方法不一定能在100%的情况下模仿百度蜘蛛,站长平台里的抓取诊断就真的是百度蜘蛛了。
如果确认百度蜘蛛抓的是正常内容,快照还是不更新,可能需要等一段时间,百度的抓取、建库是挺慢的,1-2个星期都正常。
至于被黑的原因,最常见的是CMS系统漏洞,这个例子里貌似不像,被黑的网站用什么系统的都有,有用dede的,有discuz的,有WP的,还有什么北方网系统的。
另一个常见的是密码太简单,或用的缺省设置,或多个账号共用相同密码,还有电脑被染上病毒等等,都可能造成密码被攻破。
有的时候是整个服务器漏洞,比如这批被黑的网站不少是在120.133.3.xxx这个IP段上,可能和主机商的设置有关,但主机漏洞情况并不常见。
网站被黑的情况五花八门,防止被黑要做的也很多,我不是网络安全专家,就不瞎说了,SEO们还是需要了解一些安全知识的。
自己网站被黑了怎么办?怎样恢复呢?可能出现的情况非常多,这里只能简单举个例子。
首先,注册百度站长平台、Google Search Console是必须的,就算是中文网站,没什么谷歌流量,也要注册Google Search Console,Google如果发现网站被黑,会在Search Console中给站长留言的。
然后,经常在百度、Google用site:指令,以及“site:domain+敏感关键词”看看自己网站有没有什么不该出现的标题和描述。敏感关键词可以从色情、赌博开始,再往医疗、法律服务之类的扩展。
如果自己网站被黑了,除了浏览器UA改为百度蜘蛛看看是否有cloaking,还要在百度站长平台的抓取诊断部分,用真正的百度蜘蛛抓一下,看看内容是否异常。有的网站用程序检测用户IP地址,然后反查IP是否是真的百度蜘蛛,所以上面使用的改浏览器UA的方法不一定能在100%的情况下模仿百度蜘蛛,站长平台里的抓取诊断就真的是百度蜘蛛了。
如果确认百度蜘蛛抓的是正常内容,快照还是不更新,可能需要等一段时间,百度的抓取、建库是挺慢的,1-2个星期都正常。
至于被黑的原因,最常见的是CMS系统漏洞,这个例子里貌似不像,被黑的网站用什么系统的都有,有用dede的,有discuz的,有WP的,还有什么北方网系统的。
另一个常见的是密码太简单,或用的缺省设置,或多个账号共用相同密码,还有电脑被染上病毒等等,都可能造成密码被攻破。
有的时候是整个服务器漏洞,比如这批被黑的网站不少是在120.133.3.xxx这个IP段上,可能和主机商的设置有关,但主机漏洞情况并不常见。
网站被黑的情况五花八门,防止被黑要做的也很多,我不是网络安全专家,就不瞎说了,SEO们还是需要了解一些安全知识的。
新闻资讯 更多
- 【建站知识】查询nginx日志状态码大于400的请求并打印整行04-03
- 【建站知识】Python中的logger和handler到底是个什么?04-03
- 【建站知识】python3拉勾网爬虫之(您操作太频繁,请稍后访问)04-03
- 【建站知识】xpath 获取meta里的keywords及description的方法04-03
- 【建站知识】python向上取整以50为界04-03
- 【建站知识】scrapy xpath遇见乱码解决04-03
- 【建站知识】scrapy爬取后中文乱码,解决word转为html 时cp1252编码问题04-03
- 【建站知识】scrapy采集—爬取中文乱码,gb2312转为utf-804-03