1.对一个大文件比方我的文件为
-rw-r--r-- 1 ubuntu ubuntu 9.1G Mar 1 17:53 2018-12-awk-uniq.txt
2.运用split敕令切割成10个小文件
split -b 1000m 2018-12-awk-uniq.txt -b 根据字节切割 , 支撑单元m和k
3.运用10个php历程读取文件 , 插进去redis的有序鸠合构造中 , 反复的是插不进去的 ,因而能够起到去重的作用
<?php $file=$argv[1]; //保卫历程 umask(0); //把文件掩码清0 if (pcntl_fork() != 0){ //是父历程,父历程退出 exit(); } posix_setsid();//设置新会话组长,离开终端 if (pcntl_fork() != 0){ //是第一子历程,完毕第一子历程 exit(); } $start=memory_get_usage(); $redis=new Redis(); $redis->connect('127.0.0.1', 6379); $handle = fopen("./{$file}", 'rb'); while (feof($handle)===false) { $line=fgets($handle); $email=str_replace("\n","",$line); $redis->zAdd('emails', 1, $email); }
4. redis中检察猎取的数据
zcard emails 猎取元素个数
取肯定局限的元素 , 比方从100000最先 到 100100完毕
zrange emails 100000 100100 WITHSCORES
想更高效进修PHP,请关注ki4网的PHP视频教程。
以上就是PHP连系redis完成大文件去重的细致内容,更多请关注ki4网别的相干文章!