网站SEO优化通用合同模板
分享一个保哥经常会用到的SEO合同模板,有接网站SEO业务的个人、工作室或公司可以根据实际情况使用这个SEO合同范本进行修改,一式两份。甲方:电话:地址:乙方:电话:地址:经甲、乙双方友好协商达成以下共识:第一条 网站搜索引擎优化服务是指乙方通过针对甲方网站的网页内容以及网站优化技术提高甲方网站的关键词在指定搜索引擎上的排名位置,下称网站优化。第二条 由于搜索引擎算法的改变具有不确定性,故本合……
技术性SEO实战经验分享博客
分享一个保哥经常会用到的SEO合同模板,有接网站SEO业务的个人、工作室或公司可以根据实际情况使用这个SEO合同范本进行修改,一式两份。甲方:电话:地址:乙方:电话:地址:经甲、乙双方友好协商达成以下共识:第一条 网站搜索引擎优化服务是指乙方通过针对甲方网站的网页内容以及网站优化技术提高甲方网站的关键词在指定搜索引擎上的排名位置,下称网站优化。第二条 由于搜索引擎算法的改变具有不确定性,故本合……
2018年新版的WordPress底部版权信息代码是放在site-info.php这个文件里,所以只要找到这个文件的位置就知道怎么去掉“自豪地采用 WordPress”了。但是不同的主题模板site-info.php这个文件会在不同的位置。twentyseventeen模板的site-info.php文件是在/wp-content/themes/twentyseventeen/template……
wordpress /wp-includes/http.php文件中的wp_http_validate_url函数对输入IP验证不当,导致黑客可构造类似于012.10.10.10这样的畸形IP绕过验证,进行SSRF。修复方法:编辑wp-includes目录下的http.php,找到如下代码,大约在第533行:$same_host = strtolower( $parsed_home['host……
腾讯视频提供的下载视频文件为qlv格式,这是腾讯自己的视频格式,只有腾讯视频客户端才能打开播放,而且暂时没有其它的软件可以直接把qlv转mp4,但我们可以用其它方法来实现转换。方法:先在线播放完你要下载的视频,然后打开腾讯视频客户端,如下图点击下载设置找到缓存目录,缓存目录名称是一串字母和数字混合的长长的名称进入这个文件夹,进入vodcahe文件夹里,找到最近生成的视频文件夹,如下图所示,就是……
网站被黑后被恶意挂马、被放黑链后,网站会被腾讯QQ、微信、百度搜索、360浏览器拦截并提示风险网站或危险网站。解决的办法首先是网站自查并清理所有的违法信息和危险页面内容,加强安全防范措施,然后就要到各大平台对应的申诉入口在线提交。下面是三大平台的网站拦截误报申诉入口以及各自的安全检测服务:腾讯电脑管家网站拦截申诉: https://guanjia.qq.com/online_server/co……
织梦Dedecms默认修改了文章后,文章的发布时间会发生变化,变成修改时的时间。如果要让时间不发生变化,就要修改dede/templets/archives_edit.htm这个文章, 找到如下代码:$nowtime = GetDateTimeMk(time());这句代码就是把时间设定为现在的时间,把它改成以下代码:$nowtime = GetDateTimeMk($arcRow["pubd……
在安装完织梦DedeCMS后,进入后台主页会有安全提示uploads、data目录有PHP执行权限,我们可以用.htaccess文件来禁止指定目录的执行权限,在配置前需要确认你的空间是否支持.htaccess和rewrite,该方法基于.htaccess文件中使用rewrite来达到禁止指定脚本的运行效果。 方法如下,新建.txt记事本文档,将下面内容复制粘贴到记事本,另存为的时候,编码选AN……
虚拟主机可以绑定很多域名,但是打开后是同一个网站,如何让一个虚拟主机绑定不同的域名,并且打开域名后访问的是不同的网站,只要你的主机开启了rewrite重写模块,支持.htaccess的话,就可以做到,这样对于一些要求不高的网站可以节省网站成本。比如我们要实现以下的域名绑定,虚拟主机里分别有三个目录:site1、site2、site3site1目录:绑定域名site1.com和www.site1……
死链接是怎么产生的?由于网站程序出错、URL变更、页面删除以及内容删除等等因素都有可能导致产生了网站死链接,站长如果不去检测一般不容易发现,只用使用整站检测工具才会发现所有的死链接。如何检测死链接? 单页面在线检测。可以使用在线检测工具http://tool.chinaz.com/links/ 填入要检测的页面地址,缺点是只能检测单个页面。 整站死链批量检测。分享一个全站批量检测死……
Robots协议全称是“网络爬虫排除标准”(Robots Exclusion Protocol),各搜索引擎会根据网站根目录的robots.txt文件的内容来决定访问和不访问哪些页面,所以这个文件非常重要,有的网站页面不是用来给访客看的,就要设置禁止抓取。如果根目录没有robots.txt文件一定要添加,下面提供的是使用WordPress程序完整通用的robots.txt文件。User-age……