需求:最近用php做了一个功能需要用shell定时跑,但是这个数据很大,php一次执行不完,所以需要分页。那么问题来了,由于并不知道要分多少页面。shell脚本的crontab并不太好设定

那么我就用shell写了个程序,来调用这个分页的php接口,然后用crontab执行这个shell。好了废话少说,直接上代码

#!/bin/bash

bindir="./bin"
dels=${bindir}"/*.sh"
rm -rf $dels

if [ $1 -gt 0 -a $2 -gt 0 ];then
urls="http://localhost/views/count/type/$1/count/$2"
result=$(curl -s $urls)
#要将$a分割开,可以这样:
OLD_IFS="$IFS"
IFS=","
arr=($result)
IFS="$OLD_IFS"
i=0
for s in ${arr[@]}
do
#创建文件到bin下面然后批量执行
	((i++))
	str="#!/bin/bash "
	strs=" curl -s \"$s\""
	echo $str >> ${bindir}"/$i.sh"
	echo $strs >> ${bindir}"/$i.sh"
	#curl -s "$s"
done
chmod 777 -R $bindir
#读取文件夹下所有的文件并执行
for fileAll in ${bindir}/*;do
	tempFile=`basename $fileAll`
	echo ${bindir}"/"${tempFile}
	sh ${bindir}"/"${tempFile}
done

fi

把上面的代码保存成 do.sh

# sh do.sh 1 250
success : 36 S
简单说明一下 首先我们要给do.sh设置可执行权限  在当前文件下建立一个bin文件夹,并可写。

这个do.sh会在bin目录下生成很多sh文件并分批执行

需求:最近用php做了一个功能需要用shell定时跑,但是这个数据很大,php一次执行不完,所以需要分页。那么问题来了,由于并不知道要分多少页面。shell脚本的crontab并不太好设定

那么我就用Python写了个程序,来调用这个分页的php接口。好了废话少说,直接上代码

#! /usr/bin/env python
# -*- coding: utf-8 -*-

import sys
import urllib2  
import json
import datetime

starttime = datetime.datetime.now()

types = sys.argv[1]
counts = sys.argv[2]

setDomain = 'http://localhost'
url =setDomain+'/views/count?type='+types+'&count='+counts  

def geturls( strurl ):
	# print strurl
	getResult = urllib2.urlopen(strurl,timeout = 10)
	res = int(getResult.read())
	getResult.close()
	if res != 1:
		print 'timeout'
 	return

if types and counts:
	data = urllib2.urlopen(url,timeout = 10)  
	getJson = data.read()
	s = json.loads(getJson)

	if  s['code'] == 0:
		for urls in s['message']:
			geturls(urls)
	else:
		print s['message']

	# get time
	endtime = datetime.datetime.now()
	end = (endtime - starttime).seconds
	print 'success : '+str(end)+' S'
else:
	sys.exit(0)

把上面的代码保存成 do.py

# python do.py 1 250
success : 36 S

简单说明一下  url接口是用来获取分页数目的  而urls最终是执行分页  用urllib2.urlopen获取结果 datetime获取执行时间

目前的程序需要执行36S 还能容忍,以后会改进一下,比如加入队列处理防止超时

两种方式实现执行来自php接口数据
需求:有时候我们需要在后台批量的处理一些任务,而PHP&nginx有很短时间内超时。所有一个任务可能要分N次处理。
由于crontab比较弱,我们不可以把一个任务拆分N次,写入其中。这里我写了sh 和 python实现php分批处理,当然我们可以放到crontab中运行

0 */8 * * * /usr/bin/python /home/view.py 1 250

0 */8 * * * /usr/bin/sh /home/view.sh 2 50

说明一下参数 其中 参数1 是类型 参数2是每页多少数据
http://localhost/views/count/type/$1/count/$2 这个接口返回是分页后的url 也就是我们真正要执行的php接口路径

python请求此接口返回的是json 由于sh操作json比较麻烦 我就用英文逗号分隔返回的是字符串

此方法提供的是一种思路,供大家参考

一下是代码包 转载请注明来源批量执行来自php接口的数据

1. 通常情况:

_SERVER[“HTTP_HOST”] 在HTTP/1.1协议规范下,会根据客户端的HTTP请求输出信息。
_SERVER[“SERVER_NAME”] 默认情况下直接输出nginx的配置文件nginx.conf中的server_name值。

2. 当服务器为非80端口时:

_SERVER[“HTTP_HOST”] 会输出端口号,例如:shangzh.com:8080
_SERVER[“SERVER_NAME”] 会直接输出server_name值
因此在这种情况下,可以理解为:HTTP_HOST = SERVER_NAME : SERVER_PORT

3.当配置文件nginx.conf中的server_name与HTTP/1.0请求的域名不一致时:

server_name  shangzh.com www.shangzh.com;

客户端访问域名www.shangzh.com
_SERVER[“HTTP_HOST”] 输出 www.shangzh.com
_SERVER[“SERVER_NAME”] 输出 shangzh.com

为什么会这样,SERVER_NAME 在nginx下读取的是server_name 的第一个值(没看源码,姑且这样理解)

因此在开发中还是用_SERVER[“HTTP_HOST”]获取域名

一,先说一下为什么要分表

当一张的数据达到几百万时,你查询一次所花的时间会变多,如果有联合查询的话,我想有可能会死在那儿了。分表的目的就在于此,减小数据库的负担,缩短查询时间。

根据个人经验,mysql执行一个sql的过程如下:
1,接收到sql;2,把sql放到排队队列中 ;3,执行sql;4,返回执行结果。在这个执行过程中最花时间在什么地方呢?第一,是排队等待的时间,第二,sql的执行时间。其实这二个是一回事,等待的同时,肯定有sql在执行。所以我们要缩短sql的执行时间。

mysql中有一种机制是表锁定和行锁定,为什么要出现这种机制,是为了保证数据的完整性,我举个例子来说吧,如果有二个sql都要修改同一张表的同一条数据,这个时候怎么办呢,是不是二个sql都可以同时修改这条数据呢?很显然mysql对这种情况的处理是,一种是表锁定(myisam存储引擎),一个是行锁定(innodb存储引擎)。表锁定表示你们都不能对这张表进行操作,必须等我对表操作完才行。行锁定也一样,别的sql必须等我对这条数据操作完了,才能对这条数据进行操作。如果数据太多,一次执行的时间太长,等待的时间就越长,这也是我们为什么要分表的原因。

二,分表

1,做mysql集群,例如:利用mysql cluster ,mysql proxy,mysql replication,drdb等等

有人会问mysql集群,根分表有什么关系吗?虽然它不是实际意义上的分表,但是它启到了分表的作用,做集群的意义是什么呢?为一个数据库减轻负担,说白了就是减少sql排队队列中的sql的数量,举个例子:有10个sql请求,如果放在一个数据库服务器的排队队列中,他要等很长时间,如果把这10个sql请求,分配到5个数据库服务器的排队队列中,一个数据库服务器的队列中只有2个,这样等待时间是不是大大的缩短了呢?这已经很明显了。所以我把它列到了分表的范围以内,我做过一些mysql的集群:

linux mysql proxy 的安装,配置,以及读写分离

mysql replication 互为主从的安装及配置,以及数据同步

优点:扩展性好,没有多个分表后的复杂操作(php代码)

缺点:单个表的数据量还是没有变,一次操作所花的时间还是那么多,硬件开销大。

2,预先估计会出现大数据量并且访问频繁的表,将其分为若干个表

这种预估大差不差的,论坛里面发表帖子的表,时间长了这张表肯定很大,几十万,几百万都有可能。 聊天室里面信息表,几十个人在一起一聊一个晚上,时间长了,这张表的数据肯定很大。像这样的情况很多。所以这种能预估出来的大数据量表,我们就事先分出个N个表,这个N是多少,根据实际情况而定。以聊天信息表为例:

我事先建100个这样的表,message_00,message_01,message_02……….message_98,message_99.然后根据用户的ID来判断这个用户的聊天信息放到哪张表里面,你可以用hash的方式来获得,可以用求余的方式来获得,方法很多,各人想各人的吧。下面用hash的方法来获得表名:

<?php
function get_hash_table($table,$userid) {
$str = crc32($userid);
if($str<0){
$hash = “0”.substr(abs($str), 0, 1);
}else{
$hash = substr($str, 0, 2);
}

return $table.”_”.$hash;
}

echo get_hash_table(‘message’,’user18991′);     //结果为message_10
echo get_hash_table(‘message’,’user34523′);    //结果为message_13
?>

Read More →