DO(Digitalocean)旧金山(SFO2)

DO(Digitalocean)旧金山(SFO2)
DO(Digitalocean)旧金山(SFO2),digitalocean 旧金山2区网速测试,点我购买,送钱 digitalocean的旧金山增加了第二个机房。digitalocean是一家成立于云主机商家,采用KVM虚拟,配置高性能的SSD做储存,服务器配备的是1000M端口,拥有多个数据中心 亚洲:印度班加罗尔、新加坡; 美洲:加拿大多伦多、美国纽约3个、旧金山2个; 欧洲:荷兰阿姆斯特丹,英国伦敦、德国法兰克福 最新消息,免费一键快照备份VPS...

Ubuntu 只安装安全更新的方法

Ubuntu 只安装安全更新的方法
只安装安全更新 sudo unattended-upgrade 自动安裝安全更新 sudo dpkg-reconfigure -plow unattended-upgrades 让 apt-get upgrade 只安裝安全更新 sudo vi /etc/apt/preferences Package: * Pin: release a=lucid-security Pin-Priority: 500 Package: * Pin: release o=Ubuntu Pin-Priority: 50 sudo apt-get update sudo apt-get upgrade 参考:互联网

python2.7找不到pip的问题

python2.7找不到pip的问题
python2.7找不到pip的问题,找不到pip的异常: 1、 ./configure --prefix=/home/me/software/python-2.7.9/myinstall/ 2、 make; make install 3、安装完毕,找不到pip 解决方案: You probably need to use the ensurepip package. python -m ensurepip This will install pip if it is not already there. 出自:http://stackoverflow.com/questions/28751541/where-is-pip-in-python-2-7-9-linux

Centos6将python 2.6 升级到 2.7

Centos6将python 2.6 升级到 2.7
Centos6将python 2.6 升级到 2.7 0.查看python的版本 #python -V Python 2.6.6 1.下载Python-2.7.6 #wget https://www.python.org/ftp/python/2.7.6/Python-2.7.6.tgz 2.解压 #tar -zxvf Python-2.7.6.tgz 3.更改工作目录 #cd Python-2.7.6 4.安装 #./configure #make all #make install #make clean #make distclean 5.查看版本信息 #/usr/local/bin/python2.7 -V 6.建立软连接...

Scrapyd常用API

Scrapyd常用API
Scrapyd常用API,Scrapyd常用API详解 爬虫接口IP:http://192.168.0.2:6800/ 1、启动API(POST):  http://192.168.0.2:6800/schedule.json -d project=xxxspider -d spider=cplusplus -d word=['hahaha'] -d version=1.0.2 {"status": "ok", "jobid": "dcc25dda594b11e6b757fc4dd43b1961", "node_name": "ubuntu-16"} 2、取消API(POST):  http://192.168.0.2:6800/cancel.json -d project=xxxspider -d ...

Scrapyd部署scrapy爬虫

Scrapyd部署scrapy爬虫
Scrapyd部署scrapy爬虫, Scrapyd部署, Scrapyd经验。 1、sudo pip install scrapyd 2、sudo pip install scrapyd-client 3、切换目录到项目所在路径: 修改scrapy.cfg设置 [deploy:xxxx] url = http://192.168.2.239:6800 project = xxxspider 发布工程到scrapyd scrapyd-deploy xxxx -p xxxspider --version 54(version为版本号,可以方便控制爬虫版本) Packing version 1470208884 Deploying to pro...

scrapyd异常job错误解决方法

scrapyd异常job错误解决方法
【scrapyd异常】,【TypeError: init() got an unexpected keyword argument 'job'异常】 scrapyd schedule job 时, 遇到错误 TypeError: init() got an unexpected keyword argument 'job' , 需要在spider的_init方法里添加 **kwargs 参数 进入项目spiders目录, 修改testspider.py 文件里init 方法即可: def init(self, **kwargs): ├── init.py ├── items.py ├── pipelines.py ├── settings.py └── spide...

mongodb逻辑操作(多个 or,and)

mongodb逻辑操作(多个 or,and)
mongodb逻辑操作(多个 or,and): mongodb中的单个AND和OR,逻辑操作: 1、例如在集合XXX中寻找名字为BuleRiver或者BuleRiver2的信息: db.XXX.find({"$or":[{"name":"BuleRiver"}, {"name":"BuleRiver2"}]}); 2、例如在集合XXX中寻找名字为BuleRiver且level为1的信息: db.XXX.find({"name":"BuleRiver", "level":1}); mongodb 中多个AND和OR,逻辑操作: 1、例如a>1 and b>2 or c>3 and d>4 ...

ElasticSearch的一些用法总结

ElasticSearch的一些用法总结
《ElasticSearch的一些用法总结》,2016年7月25日 一、ElasticSearch简单搜索: 1、在特定索引和所有索引中搜索: /_search 在所有索引的所有类型中搜索 /gb/_search 在索引gb的所有类型中搜索 /gb,us/_search 在索引gb和us的所有类型中搜索 /g*,u*/_search 在以g或u开头的索引的所有类型中搜索 /gb/user/_search 在索引gb的类型user中搜索 /gb,us/user,tweet/_search 在索引gb和us的类型为user和tweet中...

KMS服务器地址(测试用)

KMS服务器地址(测试用)
KMS服务器地址(测试用),KMS服务器地址,KMS激活 KMS密钥:http://www.cplusplus.me/2403.html 提示:禁止转载,禁止分享 亲自PING过以下所有网址 kms.miaomiao.zyns.com kms.lotro.cc 54.223.212.31 kms.didichuxing.com端口1688 xykz.f3322.org kms.xspace.in 能ping通 却无法激活, zh.us.to 能ping通 却无法激活, 企业版:NPPR9-FWDCX-D2C8J-H872K-2YT43 专业版:W269N-WFGWX-YVC9B-4J6C9-T83GX 例如 激...
Copyright © C/C++程序员之家 保留所有权利.   Theme  Ality 浙ICP备15011757号-3

用户登录