搜档网
当前位置:搜档网 › c# 实现网页上用户自动登陆.net 模拟网站登录

c# 实现网页上用户自动登陆.net 模拟网站登录

c# 实现网页上用户自动登陆.net 模拟网站登录
c# 实现网页上用户自动登陆.net 模拟网站登录

using System;

using System.Collections.Generic;

using System.Text;

using https://www.sodocs.net/doc/cf9323064.html,;

using System.IO;

namespace Czt.Web

{

///

/// 实现网站登录类

///

public class Post

{

///

/// 网站Cookies

///

private string _cookieHeader = string.Empty;

public string CookieHeader

{

get

{

return _cookieHeader;

}

set

{

_cookieHeader = value;

}

}

///

/// 网站编码

///

private string _code = string.Empty;

public string Code

{

get { return _code; }

set { _code = value; }

}

private string _pageContent = string.Empty;

public string PageContent

{

get { return _pageContent; }

set { _pageContent = value; }

}

private Dictionary _para = new Dictionary();

public Dictionary Para

{

get { return _para; }

set { _para = value; }

}

/**/

///

/// 功能描述:模拟登录页面,提交登录数据进行登录,并记录Header中的cookie

///

/// 登录数据提交的页面地址

/// 用户登录数据

/// 引用地址

/// 网站编码

/// 可以返回页面内容或不返回

public string PostData(string strURL, string strArgs, string strReferer, string code, string method)

{

return PostData(strURL, strArgs, strReferer, code, method, string.Empty);

}

public string PostData(string strURL, string strArgs, string strReferer, string code, string method, string contentType)

{

try

{

string strResult = "";

HttpWebRequest myHttpWebRequest =

(HttpWebRequest)WebRequest.Create(strURL);

myHttpWebRequest.AllowAutoRedirect = true;

myHttpWebRequest.KeepAlive = true;

myHttpWebRequest.Accept = "image/gif, image/x-xbitmap, image/jpeg,

image/pjpeg, application/vnd.ms-excel, application/msword, application/x-shockwave-flash, */*";

myHttpWebRequest.Referer = strReferer;

https://www.sodocs.net/doc/cf9323064.html,erAgent = "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; Maxthon; .NET CLR 2.0.50727)";

if (string.IsNullOrEmpty(contentType))

{

myHttpWebRequest.ContentType = "application/x-www-form-urlencoded";

}

else

{

myHttpWebRequest.ContentType = "contentType";

}

myHttpWebRequest.Method = method;

myHttpWebRequest.Headers.Add("Accept-Encoding", "gzip, deflate");

if (myHttpWebRequest.CookieContainer == null)

{

myHttpWebRequest.CookieContainer = new CookieContainer();

}

if (this.CookieHeader.Length > 0)

{

myHttpWebRequest.Headers.Add("cookie:" + this.CookieHeader);

myHttpWebRequest.CookieContainer.SetCookies(new Uri(strURL), this.CookieHeader);

}

byte[] postData = Encoding.GetEncoding(code).GetBytes(strArgs);

myHttpWebRequest.ContentLength = postData.Length;

System.IO.Stream PostStream = myHttpWebRequest.GetRequestStream();

PostStream.Write(postData, 0, postData.Length);

PostStream.Close();

HttpWebResponse response = null;

System.IO.StreamReader sr = null;

response = (HttpWebResponse)myHttpWebRequest.GetResponse();

if (myHttpWebRequest.CookieContainer != null)

{

this.CookieHeader =

myHttpWebRequest.CookieContainer.GetCookieHeader(new Uri(strURL));

}

sr = new System.IO.StreamReader(response.GetResponseStream(), Encoding.GetEncoding(code)); // //utf-8

strResult = sr.ReadToEnd();

sr.Close();

response.Close();

return strResult;

}

catch (Exception ex)

{

Utilities.Document.Create("C:\\error.log", strArgs, true, Encoding.UTF8);

}

return string.Empty;

}

/**/

///

/// 功能描述:在PostLogin成功登录后记录下Headers中的cookie,然后获取此网站上其他页面的内容

///

/// 获取网站的某页面的地址

/// 引用的地址

/// 返回页面内容

public string GetPage(string strURL, string strReferer, string code)

{

return GetPage(strURL, strReferer,code,string.Empty);

}

public string GetPage(string strURL, string strReferer,string code,string contentType) {

string strResult = "";

HttpWebRequest myHttpWebRequest =

(HttpWebRequest)WebRequest.Create(strURL);

myHttpWebRequest.AllowAutoRedirect = true;

myHttpWebRequest.KeepAlive = false;

myHttpWebRequest.Accept = "*/*";

myHttpWebRequest.Referer = strReferer;

myHttpWebRequest.Headers.Add("Accept-Encoding", "gzip, deflate");

https://www.sodocs.net/doc/cf9323064.html,erAgent = "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; Maxthon; .NET CLR 2.0.50727)";

if (string.IsNullOrEmpty(contentType))

{

myHttpWebRequest.ContentType = "application/x-www-form-urlencoded";

}

else

{

myHttpWebRequest.ContentType = contentType;

}

myHttpWebRequest.Method = "GET";

if (myHttpWebRequest.CookieContainer == null)

{

myHttpWebRequest.CookieContainer = new CookieContainer();

}

if (this.CookieHeader.Length > 0)

{

myHttpWebRequest.Headers.Add("cookie:" + this.CookieHeader);

myHttpWebRequest.CookieContainer.SetCookies(new Uri(strURL),

this.CookieHeader);

}

HttpWebResponse response = null;

System.IO.StreamReader sr = null;

response = (HttpWebResponse)myHttpWebRequest.GetResponse();

Stream streamReceive;

string gzip = response.ContentEncoding;

if (string.IsNullOrEmpty(gzip) || gzip.ToLower() != "gzip")

{

streamReceive = response.GetResponseStream();

}

else

{

streamReceive = new

https://www.sodocs.net/doc/cf9323064.html,pression.GZipStream(response.GetResponseStream(),

https://www.sodocs.net/doc/cf9323064.html,pressionMode.Decompress);

}

sr = new System.IO.StreamReader(streamReceive, Encoding.GetEncoding(code));

if (response.ContentLength > 1)

{

strResult = sr.ReadToEnd();

}

else

{

char[] buffer=new char[256];

int count = 0;

StringBuilder sb = new StringBuilder();

while ((count = sr.Read(buffer, 0, buffer.Length)) > 0)

{

sb.Append(new string(buffer));

}

strResult = sb.ToString();

}

sr.Close();

response.Close();

return strResult;

}

}

}

windows服务器NTP服务自动对时服务开启方法

windows服务器NTP自动对时服务 开启方法和应用 第1章开启服务器NTP服务 1.打开系统“服务”选项,双击打开“Windows Time”服务 2.在系统服务中设置W32Time服务启动模式为自动 3.点击运行或者win+R调出运行窗口,输入regedit打开Windows注册表

4.在注册表找到如下位置 HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\W32Ti me\Config 找到AnnounceFlags 双击修改值为5保存 5.在注册表找到如下位置 HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\W32Ti me\TimeProviders\NtpServer

找到Enable并修改其值为1 6.键盘“win+R”,打开系统CMD命令(注意一定要以管理员身份运行) 在命令提示符中输入:net stop w32Time,回车等待NTP服务停止。 然后再输入:net start w32Time,回车启动NTP服务。

7.系统提示“Windows Time 服务已经启动成功”即说明NTP服务已正常启 动。 第2章设置硬盘录像机的NTP自动对时服务 1)硬盘录像机须和服务器设置在同一网段。 2)登录硬盘录像机后台,找到“系统设置”→“时间配置”→“NTP校时” 3)输入服务器的IP,NTP端口固定为123,校时时间间隔设置为1分钟。 4)设置完成后,等待一分钟硬盘录像机的时间自动与服务器时间同步,说 明NTP功能开启成功。 第3章其他应用方向 1)为其他局域网内的电脑提供授时功能。 2)能为局域网内摄像头提供NTP授时服务(摄像头须支持NTP功能)。

服务器基本安全配置

服务器基本安全配置 1.用户安全 (1)运行lusrmgr.msc,重命名原Administrator用户为自定义一定长度的名字,并新建同名 Administrator普通用户,设置超长密码去除所有隶属用户组。 (2)运行gpedit.msc——计算机配置—安全设置—账户策略—密码策略 启动密码复杂性要求,设置密码最小长度、密码最长使用期限,定期修改密码保证服务器账户的密码安全。 (3)运行gpedit.msc——计算机配置—安全设置—账户策略—账户锁定策略 启动账户锁定,设置单用户多次登录错误锁定策略,具体设置参照要求设置。

(4)运行gpedit.msc——计算机配置—安全设置—本地策略—安全选项 交互式登录:不显示上次的用户名;——启动 交互式登录:回话锁定时显示用户信息;——不显示用户信息 (5)运行gpedit.msc——计算机配置—安全设置—本地策略—安全选项 网络访问:可匿名访问的共享;——清空 网络访问:可匿名访问的命名管道;——清空 网络访问:可远程访问的注册表路径;——清空 网络访问:可远程访问的注册表路径和子路径;——清空 (6)运行gpedit.msc——计算机配置—安全设置—本地策略 通过终端服务拒绝登陆——加入一下用户(****代表计算机名)ASPNET Guest IUSR_***** IWAM_***** NETWORK SERVICE SQLDebugger 注:用户添加查找如下图:

(7)运行gpedit.msc——计算机配置—安全设置—本地策略—策略审核 即系统日志记录的审核消息,方便我们检查服务器的账户安全,推荐设置如下: (8)

国内主要信息抓取软件盘点

国内主要信息抓取软件盘点 近年来,随着国内大数据战略越来越清晰,数据抓取和信息采集系列产品迎来了巨大的发展 机遇,采集产品数量也出现迅猛增长。然而与产品种类快速增长相反的是,信息采集技术相 对薄弱、市场竞争激烈、质量良莠不齐。在此,本文列出当前信息采集和数据抓取市场最具 影响力的六大品牌,供各大数据和情报中心建设单位采购时参考: TOP.1 乐思网络信息采集系统 乐思网络信息采系统的主要目标就是解决网络信息采集和网络数据抓取问题。是根据用户自定义的任务配置,批量而精确地抽取因特网目标网页中的半结构化与非结构化数据,转化为结构化的记录,保存在本地数据库中,用于内部使用或外网发布,快速实现外部信息的获取。 主要用于:大数据基础建设,舆情监测,品牌监测,价格监测,门户网站新闻采集,行业资讯采集,竞争情报获取,商业数据整合,市场研究,数据库营销等领域。 TOP.2 火车采集器 火车采集器是一款专业的网络数据采集/信息挖掘处理软件,通过灵活的配置,可以很轻松迅速地从网页上抓取结构化的文本、图片、文件等资源信息,可编辑筛选处理后选择发布到网站后台,各类文件或其他数据库系统中。被广泛应用于数据采集挖掘、垂直搜索、信息汇聚和门户、企业网信息汇聚、商业情报、论坛或博客迁移、智能信息代理、个人信息检索等领域,适用于各类对数据有采集挖掘需求的群体。 TOP.3 熊猫采集软件 熊猫采集软件利用熊猫精准搜索引擎的解析内核,实现对网页内容的仿浏览器解析,在此基础上利用原创的技术实现对网页框架内容与核心内容的分离、抽取,并实现相似页面的有效比对、匹配。因此,用户只需要指定一个参考页面,熊猫采集软件系统就可以据此来匹配类似的页面,来实现用户需要采集资料的批量采集。 TOP.4 狂人采集器 狂人采集器是一套专业的网站内容采集软件,支持各类论坛的帖子和回复采集,网站和博客文章内容抓取,通过相关配置,能轻松的采集80%的网站内容为己所用。根据各建站程序

设置服务器按日期、星期、时间定时自动开关机

怎么实现定时开机的: 计算机启动时按“Delete”键进入BIOS界面。在BIOS设置主界面中选择“Power Management Setup”菜单,进入电源管理窗口。 默认情况下,“Resume By Alarm)选项是关闭的,也就是disable的,将光标移到该项,用PageUp或PageDown翻页键或按enter键,选择Enabled,将“Disabled”改为“Enabled”,再在”Date (of Month)Alarm”和“Time (hh:mm:ss)Alarm”中设定开机的日期和时间。 注意如果你把“Date”设为0,则默认为每天定时开机。设置好后按“F10“保存设置就可以了,机器会重新启动,而你的自动开机设置也便大功告成了。 不过不同的主板在设置上会不尽相同,但都大同小异。,你只要安装这里的相关介绍并且对照主板说明书操作的话应该是没有任何问题的。 怎么实现定时关机:下面介绍两种方法:第一种方法:使用shutdown命令下面以23:00定时关机来说明。打开“运行“对话框,输入命令”at 23:00 shutdown -s -t 60“(表示到23:00后再等60秒关机,这可以由你自己设定),其实这是一个”关机‘的计划任务,你可以看到,输完命令回车后在计划任务里添加了一项,如果要重复执行一个任务,则可以使用every参数。该参数支持日期和星期的表示方式,例如at 00:15 /every:M,T,W,Th,F,S,Su shutdown -s -f,该命令表示每个周一到周日都执行该命令,也可以使用/evert:1,3,5,7,9等日期方式。 第二种方法:单击“开始”按钮,在“开始”菜单中选择“程序”选项,在“程序”中选择“附件”,再在“附件”中选择“系统工具”,在“系统工具”中选择“计划任务”命令,这时就打开了“计划任务”窗口,在该窗口中,点击“添加已计划的任务”进入“计划任务”向导。按照提示点击“下一步”后,再点击“浏览”按钮,找到“C:\Windows\Rundll32.exe”打开,然后根据自己的需求设置任务执行的方式,如每天或每周。最后设置好这个任务开始的时间和开始的日期,点击“完成”按钮就会在计划任务窗口出现“Rundll32”这个计划任务名。 1、开机:bios设置里应该有定时开机的选项 2、关机:用windows的计划任务定时执行shutdown指令,shutdown指令的说明如下 Microsoft Windows [版本 5.2.3790] (C) 版权所有1985-2003 Microsoft Corp. C:\Documents and Settings\Administrator>shutdown /?

网页抓取工具如何进行http模拟请求

网页抓取工具如何进行http模拟请求 在使用网页抓取工具采集网页是,进行http模拟请求可以通过浏览器自动获取登录cookie、返回头信息,查看源码等。具体如何操作呢?这里分享给大家网页抓取工具火车采集器V9中的http模拟请求。许多请求工具都是仿照火车采集器中的请求工具所写,因此大家可以此为例学习一下。 http模拟请求可以设置如何发起一个http请求,包括设置请求信息,返回头信息等。并具有自动提交的功能。工具主要包含两大部分:一个MDI父窗体和请求配置窗体。 1.1请求地址:正确填写请求的链接。 1.2请求信息:常规设置和更高级设置两部分。 (1)常规设置: ①来源页:正确填写请求页来源页地址。 ②发送方式:get和post,当选择post时,请在发送数据文本框正确填写发布数据。 ③客户端:选择或粘贴浏览器类型至此处。 ④cookie值:读取本地登录信息和自定义两种选择。 高级设置:包含如图所示系列设置,当不需要以上高级设置时,点击关闭按钮即可。 ①网页压缩:选择压缩方式,可全选,对应请求头信息的Accept-Encoding。 ②网页编码:自动识别和自定义两种选择,若选中自定义,自定义后面会出现编

码选择框,在选择框选择请求的编码。 ③Keep-Alive:决定当前请求是否与internet资源建立持久性链接。 ④自动跳转:决定当前请求是否应跟随重定向响应。 ⑤基于Windows身份验证类型的表单:正确填写用户名,密码,域即可,无身份认证时不必填写。 ⑥更多发送头信息:显示发送的头信息,以列表形式显示更清晰直观的了解到请求的头信息。此处的头信息供用户选填的,若要将某一名称的头信息进行请求,勾选Header名对应的复选框即可,Header名和Header值都是可以进行编辑的。 1.3返回头信息:将详细罗列请求成功之后返回的头信息,如下图。 1.4源码:待请求完毕后,工具会自动跳转到源码选项,在此可查看请求成功之后所返回的页面源码信息。 1.5预览:可在此预览请求成功之后返回的页面。 1.6自动操作选项:可设置自动刷新/提交的时间间隔和运行次数,启用此操作后,工具会自动的按一定的时间间隔和运行次数向服务器自动请求,若想取消此操作,点击后面的停止按钮即可。 配置好上述信息后,点击“开始查看”按钮即可查看请求信息,返回头信息等,为避免填写请求信息,可以点击“粘贴外部监视HTTP请求数据”按钮粘贴请求的头信息,然后点击开始查看按钮即可。这种捷径是在粘贴的头信息格式正确的前提下,否则会弹出错误提示框。 更多有关网页抓取工具或网页采集的教程都可以从火车采集器的系列教程中学习借鉴。

运维服务器登录规范

运维服务器登录规范 1.1终端使用规范 为了保证运维工作的严谨性和安全性,运维人员必须养成以下几个良好的习惯: 1、无论何时、何事、何种原因,离开座位必须锁定屏幕,保证电脑终端的安全; 2、电脑必须安装杀毒软件和木马防火墙。 1.2服务器登录规范 1、目前统一使用Xshell和SecureCRT管理服务器,请勿使用其他破解版本; 2、客户端连接服务器的时候,严禁自动登录功能; 3、根据用户和用户组做权限管理,严格控制服务器登录权限。 1.3服务器管理规范 1、在服务器上不允许使用rm命令,遇到确实不用的文件需使用mv filename/tmp的方式,将文件放入/tmp目录下,由系统自动删除; 2、对于没有经过验证的命令绝不允许在服务器上运行,必须完全理解该命令执行后的结果方可执行,执行命令时必须确定当前的工作目录; 3、修改配置文件必须备份,如cp filenamefilename_20151221,然后进行修改; 4、任何更改系统环境变量、参数设置的操作,需在测试环境下验证后执行; 5、管理员尽量使用sudo,而避免使用root用户操作。 1.4日志记录 运维日志是运维工程师每天必须进行登记的内容之一,由时间、日常工作、监控故障、响应故障、未完成工作、注意事项等项目组成,用来将每天的主要工作和处理的问题进行详细登记,便于总结工作和以后查询。日志功能待上线。 1.5测试评估 对于开源的软件,安装前必须进行一个周期的上线前的测试评估,评估该软件的功能、使用和安全性。服务器拒绝使用破解类型的软件,减少不必要的法律纠纷。

测试评估分为以下步骤进行: 1、内部测试服务器测试,评估其功能是否可以达到要求; 2、申请测试服务器,进行在线测试,并整理详细安装部署和管理文档; 3、在线运行,加入监控平台进行统计监控。 1.6账号管理 1、只有授权用户才可以申请系统账号,账号相应的权限应该以满足用户需要为原则,不得有与用户职责无关的权限; 2.、一人一账号,以便将用户与其操作联系起来,使用户对其操作负责; 3.、管理员必须维护对注册使用服务的所有用户的正式记录; 4、用户因工作变更或离开公司时,管理员要及时取消或者锁定其所有账号,对于无法锁定或者删除的用户账号采用更改口令等相应的措施规避该风险; 5、管理员应定期检查并取消多余的用户账号。 1.7 口令选取规范 1、用户应该有意识地选择强壮的口令(即难以破解和猜测的口令),不要使用弱口令; 2、用户应保证口令安全,不得向其他任何人泄漏。即使是出差或休假时,也不应将自己口令告诉他人; 3、至少3个月更改一次口令; 4、应避免在纸上记录口令,或以明文方式记录计算机内; 5、一旦有迹象表明系统或口令可能遭到破坏时,应立即更改; 6、如忘记个人密口令需经批准后由管理员重置口令后方可使用。

百度贴吧内容抓取工具-让你的网站一夜之间内容丰富

百度贴吧内容抓取工具-让你的网站一夜之间内容丰富 [hide] 百度帖吧内容抓取工具

var $getreplytime=1; var $showimg=1; var $showcon=1; var $showauthor=1; var $showreplytime=1; var $showsn=0; var $showhr=0; var $replylista=array(); var $pat_reply="<\/a>(.+?)


<\/td>\r\n<\/tr><\/table>"; var $pat_pagecount="尾页<\/font><\/a>"; var $pat_title="(.+?)<\/font>"; var $pat_replycon="<\/td>\r\n\r\n
(.+?)<\/td><\/tr><\/table>\r\n<\/td><\/tr>"; var $pat_author="作者:(?:|)(.+?)(?:<\/a>|) \r\n"; var $pat_img=""; var $pat_replytime=" ([0-9]{1,4}-[0-9]{1,2}-[0-9]{1,2} [0-9]{1,2}:[0-9]{1,2})+ <\/font>"; var $defaulturl="https://www.sodocs.net/doc/cf9323064.html,/f?kz=87576027"; function import(){ $this->setconfig(); if(isset($_POST["act"])){ $this->getconfig(); $this->showform(); $this->act(); }else{ $this->showform(); } } function setconfig(){ $this->url=isset($_POST["url"])?$_POST["url"]this->defaulturl; $this->url=eregi_replace("[&]?pn=([0-9]+)","",$this->url); $this->beginpage=isset($_POST["beginpage"])?$_POST["beginpage"]:0; $this->endpage=isset($_POST["endpage"])?$_POST["endpage"]:50; $this->endpage=min($this->maxpagecount,$this->endpage); $this->timeout=min(isset($_POST["timeout"])?$_POST["timeout"]:30,$this->maxtimeout); $this->showimg=isset($_POST["showimg"])?$_POST["showimg"]:1; $this->showcon=isset($_POST["showcon"])?$_POST["showcon"]:1; $this->showauthor=isset($_POST["showauthor"])?$_POST["showauthor"]:0; $this->showreplytime=isset($_POST["showreplytime"])?$_POST["showreplytime"]:0; $this->showhr=isset($_POST["showhr"])?$_POST["showhr"]:1; $this->showsn=isset($_POST["showsn"])?$_POST["showsn"]:0;

网络文字抓取工具使用方法

https://www.sodocs.net/doc/cf9323064.html, 网络文字抓取工具使用方法 网页文字是网页中常见的一种内容,有些朋友在浏览网页的时候,可能会有批量采集网页内容的需求,比如你在浏览今日头条文章的时候,看到了某个栏目有很多高质量的文章,想批量采集下来,下面本文以采集今日头条为例,介绍网络文字抓取工具的使用方法。 采集网站: 使用功能点: ●Ajax滚动加载设置 ●列表内容提取 步骤1:创建采集任务

https://www.sodocs.net/doc/cf9323064.html, 1)进入主界面选择,选择“自定义模式” 今日头条网络文字抓取工具使用步骤1 2)将上面网址的网址复制粘贴到网站输入框中,点击“保存网址”

https://www.sodocs.net/doc/cf9323064.html, 今日头条网络文字抓取工具使用步骤2 3)保存网址后,页面将在八爪鱼采集器中打开,红色方框中的信息是这次演示要采集的内容,即为今日头条最新发布的热点新闻。

https://www.sodocs.net/doc/cf9323064.html, 今日头条网络文字抓取工具使用步骤3 步骤2:设置ajax页面加载时间 ●设置打开网页步骤的ajax滚动加载时间 ●找到翻页按钮,设置翻页循环 ●设置翻页步骤ajax下拉加载时间

https://www.sodocs.net/doc/cf9323064.html, 1)网页打开后,需要进行以下设置:打开流程图,点击“打开网页”步骤,在右侧的高级选项框中,勾选“页面加载完成向下滚动”,设置滚动次数,每次滚动间隔时间,一般设置2秒,这个页面的滚动方式,选择直接滚动到底部;最后点击确定 今日头条网络文字抓取工具使用步骤4 注意:今日头条的网站属于瀑布流网站,没有翻页按钮,这里的滚动次数设置将影响采集的数据量。

https://www.sodocs.net/doc/cf9323064.html, 今日头条网络文字抓取工具使用步骤5 步骤3:采集新闻内容 创建数据提取列表 1)如图,移动鼠标选中评论列表的方框,右键点击,方框底色会变成绿色

windows2008 服务器自动登录自动锁屏设置

Auto Logon Configuration To ensure the TMR system application can start running automatically when the Machine restarts, it is necessary to configure for Windows automatic login. The detailed configuration steps are as follows: 1) 2) 3) Click Start | Run…. In the Run dialog box, type regedit and press . If the User Acount Control dialog box pops up, click Yes to continu

4) The Registry Editor window will open. In the entry HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Winlogon , find the registry key AutoAdminiLogon . Right click it, and click Modify on the pop-up menu. 5) 6) 7) The Edit String dialog box will pop up, change the Value data to 1, and then click OK . Make sure that the data value of the AutoAdminLogon is 1. Right click in blank area , and click New-String Value on the pop-up menu

网页数据抓取方法详解

https://www.sodocs.net/doc/cf9323064.html, 网页数据抓取方法详解 互联网时代,网络上有海量的信息,有时我们需要筛选找到我们需要的信息。很多朋友对于如何简单有效获取数据毫无头绪,今天给大家详解网页数据抓取方法,希望对大家有帮助。 八爪鱼是一款通用的网页数据采集器,可实现全网数据(网页、论坛、移动互联网、QQ空间、电话号码、邮箱、图片等信息)的自动采集。同时八爪鱼提供单机采集和云采集两种采集方式,另外针对不同的用户还有自定义采集和简易采集等主要采集模式可供选择。

https://www.sodocs.net/doc/cf9323064.html, 如果想要自动抓取数据呢,八爪鱼的自动采集就派上用场了。 定时采集是八爪鱼采集器为需要持续更新网站信息的用户提供的精确到分钟的,可以设定采集时间段的功能。在设置好正确的采集规则后,八爪鱼会根据设置的时间在云服务器启动采集任务进行数据的采集。定时采集的功能必须使用云采集的时候,才会进行数据的采集,单机采集是无法进行定时采集的。 定时云采集的设置有两种方法: 方法一:任务字段配置完毕后,点击‘选中全部’→‘采集以下数据’→‘保存并开始采集’,进入到“运行任务”界面,点击‘设置定时云采集’,弹出‘定时云采集’配置页面。

https://www.sodocs.net/doc/cf9323064.html, 第一、如果需要保存定时设置,在‘已保存的配置’输入框内输入名称,再保存配置,保存成功之后,下次如果其他任务需要同样的定时配置时可以选择这个配置。 第二、定时方式的设置有4种,可以根据自己的需求选择启动方式和启动时间。所有设置完成之后,如果需要启动定时云采集选择下方‘保存并启动’定时采集,然后点击确定即可。如果不需要启动只需点击下方‘保存’定时采集设置即可。

如何把自己电脑设置成服务器

如何把自己电脑设置成服务器这里我们讲一下怎样把自己的电脑变成一台网站服务器来使用,把自己的电脑用作网站服务器并不难。 无需别的硬件或软件就能够轻松实现,只需利用Windows95OSR2中提供的"个人Web服务"(PersonalWebServer)就可以。 如果想功能更加多一些的话,就需要用 WindowsNTServer4.0。您甚至还可以创作自己的HomePage发布信息、进行文件传送或开展网上讨论等等。 总言而之,过去我们只能在网络上看见的,现在全部都可以自己来完成。 一、Web服务器功能的设置安装完Windows95OSR2后,应该考虑让别人用什么样的方法来访问我们的Web服务器,如用电话拨号来访问,就应该安装像Plus之类的电话拨号服务软件。 如果只能提供电话拨号服务,建议采用后一种方案,即用 WindowsNTServer4.0,因为它能提供256条电话线同时拨号。 当然我们也可以自己先连上一个公共的网络服务器,让别人从这个服务器访问我们的Web 服务器,但必须要有一个固定的IP地址,并在这个服务器的DNS(域名服务器)中注册。如果只有IP地址,但没有在DNS中注册,那么局域网以外的用户就不能访问该个人Web服务器。 不管用什么方式,我们都要为计算机设置TCP/IP协议和Web个人服务器功能。 这可以在"网上邻居"中设置。 方法非常简单,只需在"网上邻居"的"属性"中添加TCP/IP协议,然后在"TCP/IP属性"中的"IP地址"标签中选择"指定IP地址"并输入正确的 IP地址。在"DNS配置"标签中选择"使DNS无效"。 安装个人Web服务器的方法如下: (1)在"网上邻居"的"属性"对话框"配置"标签中单击"添加"按钮; (2)在弹出的"选择网络组件类型"对话框中,在"厂商"栏中选择"Microsoft",在"网络服务"栏中选择"PersonalWebServer",然后单击"确定"按钮。这时Windows95将自动配置系统。机器启动后,在Windows95所在驱动器的根目录下面将建立一个名为Webshare的子目录,其下还有三个子目录:WWWroot、Scripst和FTProot,分别存放HTML超文本文件、CGI脚本文件和FTP文件传送文件。 安装完成后,先可以进行一下测试。启动机器,在"控制面板"中双击"个人Web服务器"图标,在"服务"选项栏中分别选择"HTTP"和"FTP"并单击"启动",这样就开启这两项服务功能。也可以设成"自动方式",这样每次开机后,就自动启动Web服务器功能。启动Web服务器功能后,我们可以打开 WWW浏览器(如IE),在地址栏中键入我们的IP地址,马上就会出现Web个人服务器中自带的一个主页。 然后可以在一个局域网中(如Intranet 网)进行测试。方法是在网上的其他计算机中,用WWW浏览器键入用作个人Web服务器的计算机的注册名,这时应当出现同样的主页。如果不能看见,可以在个人Web服务器上用DOS方式运行一下winipcfg命令,看一看这台计算机的IP地址是不是正确。 下面介绍怎样在WindowsNTServer4.0中文版中设置Web服务器功能。 WindowsNTServer4.0中文版中的Web服务功能通过 IIS2.0(InternetInformationServer2.0)来实现。在安装WindowsNTServer4.0中文版的过程中,系统会提示"是否安装IIS2.0?",应回答"安装"。这样启动WindowsNTServer4.0中文版后,就有Web服务器的功能。和 Windows95中的情况一样,在WindowsNT中也同样存在用什么样的方法让别人访问Web服务器的问题。 如果是在局域网中,要安装网卡、设置协议及IP地址等。如果准备用调制解调器让别人拨

网页内容如何批量提取

https://www.sodocs.net/doc/cf9323064.html, 网页内容如何批量提取 网站上有许多优质的内容或者是文章,我们想批量采集下来慢慢研究,但内容太多,分布在不同的网站,这时如何才能高效、快速地把这些有价值的内容收集到一起呢? 本文向大家介绍一款网络数据采集工具【八爪鱼数据采集】,以【新浪博客】为例,教大家如何使用八爪鱼采集软件采集新浪博客文章内容的方法。 采集网站: https://www.sodocs.net/doc/cf9323064.html,/s/articlelist_1406314195_0_1.html 采集的内容包括:博客文章正文,标题,标签,分类,日期。 步骤1:创建新浪博客文章采集任务 1)进入主界面,选择“自定义采集”

https://www.sodocs.net/doc/cf9323064.html, 2)将要采集的网址URL复制粘贴到网站输入框中,点击“保存网址”

https://www.sodocs.net/doc/cf9323064.html, 步骤2:创建翻页循环

https://www.sodocs.net/doc/cf9323064.html, 1)打开网页之后,打开右上角的流程按钮,使制作的流程可见状态。点击页面下方的“下一页”,如图,选择“循环点击单个链接”,翻页循环创建完成。(可在左上角流程中手动点击“循环翻页”和“点击翻页”几次,测试是否正常翻页。) 2)由于进入详情页时网页加载很慢,网址一直在转圈状态,无法立即执行下一个步骤,因此在“循环翻页”的高级选项里设置“ajax加载数据”,超时时间设置为5秒,点击“确定”。

https://www.sodocs.net/doc/cf9323064.html, 步骤3:创建列表循环 1)鼠标点击列表目录中第一个博文,选择操作提示框中的“选中全部”。 2)鼠标点击“循环点击每个链接”,列表循环就创建完成,并进入到第一个循环项的详情页面。

如何配置服务器定时开关机

如何配置服务器定时开关机 1、自动定时开机的实现 1.1启动计算机时,按“Delete”键进入BIOS界面,在主界面中选择“PowerManagementSetup”菜单,进入电源管理窗口 1.2将光标移动到“Power-On by Alarm”选项上,默认情况下次选项为“Disabled” 1.3用PageUp或PageDown翻页键将“Disabled”改为“Enabled”, 1.4然后在“Date of Month Alarm”和“Time(hh:mm:ss)Alarm”中分别设定开机的日期和时间。

1.5 按F10,保存退出BIOS 定时开机需要您的主板支持才行,不过现在大多数主板都有这项功能。另外,不同的主板在设置上会不尽相同,不过都大同小异。 2、自动登录的实现 2.1 .1 运行“control userpassword2”命令 2.1 .2 将“要使用本机,用户必须输入用户名和密码”前的对勾清除 2.1 .3 输入要自动登录的用户名及密码

2.2.1 运行注册表,找到相应目录 运行regedit 找到HKEY_LOCAL_MACHINES\SOFTWARE\Microsoft\WindowsNT\CurrentVersion\Winlogon 2.2.2 新建字符串值 ?新建字符串指 ?⑴autoadminlogon(键值设为1) ?⑵defaultusername(键值为自动登录的用户名) ?⑶defaultpassword(键值为自动登录用户的密码) ?⑷defaultdomainname(键值为自动登录的计算机名称或者登录网络的域名) 3、自动关机实现 3.1打开记事本,输入”shutdown –s –t” 3.2将文本文档保存为.BA T格式 3.3 运行“任务计划”

常用网页数据采集软件对比

近年来,随着国内大数据战略越来越清晰,数据抓取和信息采集系列产品迎来了巨大的发展机遇,采集产品数量也出现迅猛增长。然而与产品种类快速增长相反的是,信息采集技术相对薄弱、市场竞争激烈、质量良莠不齐。在此,本文列出当前信息采集和数据抓取市场最具影响力的六大品牌,供各大数据和情报中心建设单位采购时参考: TOP.1 乐思网络信息采集系统 乐思网络信息采系统的主要目标就是解决网络信息采集和网络数据抓取问题。是根据用户自定义的任务配置,批量而精确地抽取因特网目标网页中的半结构化与非结构化数据,转化为结构化的记录,保存在本地数据库中,用于内部使用或外网发布,快速实现外部信息的获取。 该系统主要用于:大数据基础建设,舆情监测,品牌监测,价格监测,门户网站新闻采集,行业资讯采集,竞争情报获取,商业数据整合,市场研究,数据库营销等领域。 TOP.2 火车采集器 火车采集器是一款专业的网络数据采集/信息挖掘处理软件,通过灵活的配置,可以很轻松迅速地从网页上抓取结构化的文本、图片、文

件等资源信息,可编辑筛选处理后选择发布到网站后台,各类文件或其他数据库系统中。被广泛应用于数据采集挖掘、垂直搜索、信息汇聚和门户、企业网信息汇聚、商业情报、论坛或博客迁移、智能信息代理、个人信息检索等领域,适用于各类对数据有采集挖掘需求的群体。 TOP.3 熊猫采集软件 熊猫采集软件利用熊猫精准搜索引擎的解析内核,实现对网页内容的仿浏览器解析,在此基础上利用原创的技术实现对网页框架内容与核心内容的分离、抽取,并实现相似页面的有效比对、匹配。因此,用户只需要指定一个参考页面,熊猫采集软件系统就可以据此来匹配类似的页面,来实现用户需要采集资料的批量采集。 TOP.4 狂人采集器 狂人采集器是一套专业的网站内容采集软件,支持各类论坛的帖子和回复采集,网站和博客文章内容抓取,通过相关配置,能轻松的采集80%的网站内容为己所用。根据各建站程序的区别,狂人采集器分论坛采集器、CMS采集器和博客采集器三类,总计支持近40种主流建站程序的上百个版本的数据采集和发布任务,支持图片本地化,支持网站登陆采集,分页抓取,全面模拟人工登陆发布,软件运行快速安

教你如何配置自己的网站服务器

教你如何配置自己的网站服务器 2009-05-15 09:14:07 分类:服务器| 技术| 评论(0) | 浏览(1559) 1.配置环境: 操作系统:Windows 2003 Server 网站系统:IIS6.0 磁盘格式:NTFS FTP工具:Server-U 数据库:SQL Server 2000 2.服务器的安全性配置: (1).系统目录的安全性: 将所有磁盘以及部分特殊的不能继承权限的目录分配好用户权限,如下图所示:(这里最好删除除System组和Administrators超级管理员组之外的所有用户及其权限,保留此两个用户组的所有权限)

(2).系统用户的添加与管理: 打开"控制面板"里的"计算机管理",展开"系统工具"中的"本地用户和组",点击"用户"选项. 首先清理不需要的用户,禁用Guest以及默认的Internet来宾帐户. (a)设置密码: 选择一个用户,右击并选择"设置密码",如图所示:

(3).设置网站,以及网站权限和其目录权限注意:每个网站应有自己独立的一个隶属于"Guests"组的帐户及密码 (a).设置网站 控制面板里打开"管理工具",再打开"Internet 信息服务(IIS)管理器",并展开"Internet信息服务"中的"网站",选择需要使用的网站(没有则点击右键新建),点击右键,选择属性对话框,如下图所示:

使用网站快车系统,在“网站”选项卡中,这里的TCP端口只能只用默认的80端口 选择“主目录”选项卡,按照下图所示配置,其中,主目录为网站的物理路径,根据自己需要进行配置,最好不要设置在系统盘符下:

Amazon数据抓取工具推荐

https://www.sodocs.net/doc/cf9323064.html, Amazon数据抓取工具推荐 本文介绍使用八爪鱼简易模式采集Amazon数据(以采集详情页信息为例)的方法。 需要采集Amazon里商品的详细内容,在网页简易模式界面里点击Amazon,进去之后可以看到关于Amazon的三个规则信息,我们依次直接使用就可以的。 Amazon数据抓取工具使用步骤1 一、要采集Amazon详情页信息(下图所示)即打开Amazon主页点击第二个(Amazon详情页信息采集)采集网页上的内容。 1、找到Amazon详情页信息采集规则然后点击立即使用

https://www.sodocs.net/doc/cf9323064.html, Amazon数据抓取工具使用步骤2 2、下图显示的即为简易模式里面Amazon详情页信息采集的规则 查看详情:点开可以看到示例网址 任务名:自定义任务名,默认为Amazon详情页信息采集 任务组:给任务划分一个保存任务的组,如果不设置会有一个默认组 循环网址:放入要采集的Amazon网页链接(这些链接的页面格式都要是一样的)示例数据:这个规则采集的所有字段信息

https://www.sodocs.net/doc/cf9323064.html, Amazon数据抓取工具使用步骤3 3、规则制作示例 任务名:自定义任务名,也可以不设置按照默认的就行 任务组:自定义任务组,也可以不设置按照默认的就行 循环网址: https://https://www.sodocs.net/doc/cf9323064.html,/dp/B00J0C3DTE?psc=1 https://https://www.sodocs.net/doc/cf9323064.html,/dp/B003Z9W3IK?psc=1 https://https://www.sodocs.net/doc/cf9323064.html,/dp/B002RZCZ90?psc=1 我们这边示例放三个网址,设置好之后点击保存,保存之后会出现开始采集的按钮

网页文字提取工具使用教程

https://www.sodocs.net/doc/cf9323064.html, 网页文字提取工具使用教程 如何从海量的网页里提取到我们想要的信息,对于不会编程序不会打代码来说,能有一款好用的网页提取工具真是最好不过了 今天就给大家介绍一款免费网页文字抓取器抓取本文介绍使用八爪鱼采集新浪博客文章的方法。 采集网站: https://www.sodocs.net/doc/cf9323064.html,/s/articlelist_1406314195_0_1.html 采集的内容包括:博客文章正文,标题,标签,分类,日期。 步骤1:创建新浪博客文章采集任务 1)进入主界面,选择“自定义采集”

https://www.sodocs.net/doc/cf9323064.html, 2)将要采集的网址URL复制粘贴到网站输入框中,点击“保存网址”

https://www.sodocs.net/doc/cf9323064.html, 步骤2:创建翻页循环 1)打开网页之后,打开右上角的流程按钮,使制作的流程可见状态。点击页面下方的“下一页”,如图,选择“循环点击单个链接”,翻页循环创建完成。(可在左上角流程中手动点击“循环翻页”和“点击翻页”几次,测试是否正常翻页。)

https://www.sodocs.net/doc/cf9323064.html, 2)由于进入详情页时网页加载很慢,网址一直在转圈状态,无法立即执行下一个步骤,因此在“循环翻页”的高级选项里设置“ajax 加载数据”,超时时间设置为5秒,点击“确定”。

https://www.sodocs.net/doc/cf9323064.html, 步骤3:创建列表循环 1)鼠标点击列表目录中第一个博文,选择操作提示框中的“选中全部”。

https://www.sodocs.net/doc/cf9323064.html, 2)鼠标点击“循环点击每个链接”,列表循环就创建完成,并进入到第一个循环项的详情页面。

如何抓取网页数据

网页源码中规则数据的获取过程: 第一步:获取网页源码。 第二步:使用正则表达式匹配抽取所需要的数据。 第三步:将结果进行保存。 这里只介绍第一步。 https://www.sodocs.net/doc/cf9323064.html,.HttpWebRequest; https://www.sodocs.net/doc/cf9323064.html,.HttpWebResponse; System.IO.Stream; System.IO.StreamReader; System.IO.FileStream; 通过C#程序来获取访问页面的内容(网页源代码)并实现将内容保存到本机的文件中。 方法一是通过https://www.sodocs.net/doc/cf9323064.html,的两个关键的类 https://www.sodocs.net/doc/cf9323064.html,.HttpWebRequest; https://www.sodocs.net/doc/cf9323064.html,.HttpWebResponse; 来实现的。 具体代码如下 方案0:网上的代码,看明白这个就可以用方案一和方案二了 HttpWebRequest httpReq; HttpWebResponse httpResp; string strBuff = ""; char[] cbuffer = new char[256]; int byteRead = 0; string filename = @"c:\log.txt"; ///定义写入流操作 public void WriteStream() { Uri httpURL = new Uri(txtURL.Text); ///HttpWebRequest类继承于WebRequest,并没有自己的构造函数,需通过WebRequest 的Creat方法建立,并进行强制的类型转换 httpReq = (HttpWebRequest)WebRequest.Create(httpURL); ///通过HttpWebRequest的GetResponse()方法建立HttpWebResponse,强制类型转换 httpResp = (HttpWebResponse) httpReq.GetResponse(); ///GetResponseStream()方法获取HTTP响应的数据流,并尝试取得URL中所指定的网页内容///若成功取得网页的内容,则以System.IO.Stream形式返回,若失败则产生 ProtoclViolationException错误。在此正确的做法应将以下的代码放到一个try块中处理。这里简单处理 Stream respStream = httpResp.GetResponseStream(); ///返回的内容是Stream形式的,所以可以利用StreamReader类获取GetResponseStream的内容,并以StreamReader类的Read方法依次读取网页源程序代码每一行的内容,直至行尾(读取的编码格式:UTF8) StreamReader respStreamReader = new StreamReader(respStream,Encoding.UTF8); byteRead = respStreamReader.Read(cbuffer,0,256);