/*利用wget 指令和队列 模拟实现网络爬虫利用自己的站点wzsts.host3v.com测试了一下有一点错误文件运行后拿到index.html对于连接仅仅可以拿到 html 和htm 结尾的 而.com的没有考虑(设计文件可能多)一次测试后了解到如下问题:1.文件应该有树形话还原网站目录2.文本记录的连接应该分类化项目运行需要 su 根权限进行 因为mv命令本项目仅仅适合在linux下运行本项目给真真的linux 爬虫做铺垫*/#include using namespace std;#include #include #include string s("index.html");queue q; //略去一段int main(){ //index.htmlsystem("wget wzsts.host3v.com");ofstream out("out.txt"); string mv("mv ");string html(" html");q.push(s); while(!q.empty()) {out< <<"\n"; if(strstr(q.front().c_str(),".html")||strstr(q.front().c_str(),".htm")) { fun(q.front().c_str()); q.pop(); string t("wget "); t=t+s; cout< < < <