/*利用wget  指令和队列 模拟实现网络爬虫利用自己的站点wzsts.host3v.com测试了一下有一点错误文件运行后拿到index.html对于连接仅仅可以拿到 html 和htm 结尾的 而.com的没有考虑(设计文件可能多)一次测试后了解到如下问题:1.文件应该有树形话还原网站目录2.文本记录的连接应该分类化项目运行需要 su 根权限进行 因为mv命令本项目仅仅适合在linux下运行本项目给真真的linux 爬虫做铺垫*/#include
using namespace std;#include 
#include 
#include 
string s("index.html");queue
q; //略去一段int main(){ //index.htmlsystem("wget wzsts.host3v.com");ofstream out("out.txt"); string mv("mv ");string html(" html");q.push(s);  while(!q.empty())   {out<
<<"\n";  if(strstr(q.front().c_str(),".html")||strstr(q.front().c_str(),".htm"))  {    fun(q.front().c_str());     q.pop();    string t("wget ");   t=t+s;  cout<
<
<
<