linux之curl命令

:-}

介绍

curl是一种命令行工具,作用是发出网络请求,然后得到和提取数据,显示在”标准输出”(stdout)上面。

参数

语法

curl(选项)(参数)

选项

-a/--append    上传文件时,附加到目标文件
-A/--user-agent <string>    设置用户代理发送给服务器
-anyauth    可以使用“任何”身份验证方法
-b/--cookie <name=string/file>    cookie字符串或文件读取位置
    --basic    使用HTTP基本验证
-B/--use-ascii    使用ASCII /文本传输
-c/--cookie-jar <file>    操作结束后把cookie写入到这个文件中
-C/--continue-at <offset>    断点续转
-d/--data <data>    HTTP POST方式传送数据
    --data-ascii <data>    以ascii的方式post数据
    --data-binary <data>    以二进制的方式post数据
    --negotiate    使用HTTP身份验证
    --digest    使用数字身份验证
    --disable-eprt    禁止使用EPRT或LPRT
    --disable-epsv    禁止使用EPSV
-D/--dump-header <file>    把header信息写入到该文件中
    --egd-file <file>    为随机数据(SSL)设置EGD socket路径
    --tcp-nodelay    使用TCP_NODELAY选项
-e/--referer    来源网址
-E/--cert <cert[:passwd]>    客户端证书文件和密码 (SSL)
    --cert-type <type>    证书文件类型 (DER/PEM/ENG) (SSL)
    --key <key>    私钥文件名 (SSL)
    --key-type <type>    私钥文件类型 (DER/PEM/ENG) (SSL)
    --pass <pass>    私钥密码 (SSL)
    --engine <eng>    加密引擎使用 (SSL). "--engine list" for list
    --cacert <file>    CA证书 (SSL)
    --capath <directory>    CA目录 (made using c_rehash) to verify peer against (SSL)
    --ciphers <list>    SSL密码
    --compressed    要求返回是压缩的形势 (using deflate or gzip)
    --connect-timeout <seconds>    设置最大请求时间
    --create-dirs    建立本地目录的目录层次结构
    --crlf    上传是把LF转变成CRLF
-f/--fail    连接失败时不显示http错误
    --ftp-create-dirs    如果远程目录不存在,创建远程目录
    --ftp-method [multicwd/nocwd/singlecwd]    控制CWD的使用
    --ftp-pasv    使用 PASV/EPSV 代替端口
    --ftp-skip-pasv-ip    使用PASV的时候,忽略该IP地址
    --ftp-ssl    尝试用 SSL/TLS 来进行ftp数据传输
    --ftp-ssl-reqd    要求用 SSL/TLS 来进行ftp数据传输
-F/--form <name=content>    模拟http表单提交数据
    --form-string <name=string>    模拟http表单提交数据
-g/--globoff    禁用网址序列和范围使用{}和[]
-G/--get    以get的方式来发送数据
-H/--header <line>    自定义头信息传递给服务器
    --ignore-content-length    忽略的HTTP头信息的长度
-i/--include    输出时包括protocol头信息
-I/--head    只显示请求头信息
-j/--junk-session-cookies    读取文件进忽略session cookie
    --interface <interface>    使用指定网络接口/地址
    --krb4 <level>    使用指定安全级别的krb4
-k/--insecure    允许不使用证书到SSL站点
-K/--config    指定的配置文件读取
-l/--list-only    列出ftp目录下的文件名称
    --limit-rate <rate>    设置传输速度
    --local-port<NUM>    强制使用本地端口号
-m/--max-time <seconds>    设置最大传输时间
    --max-redirs <num>    设置最大读取的目录数
    --max-filesize <bytes>    设置最大下载的文件总量
-M/--manual    显示全手动
-n/--netrc    从netrc文件中读取用户名和密码
    --netrc-optional    使用 .netrc 或者 URL来覆盖-n
    --ntlm    使用 HTTP NTLM 身份验证
-N/--no-buffer    禁用缓冲输出
-o/--output    把输出写到该文件中
-O/--remote-name    把输出写到该文件中,保留远程文件的文件名
-p/--proxytunnel    使用HTTP代理
    --proxy-anyauth    选择任一代理身份验证方法
    --proxy-basic    在代理上使用基本身份验证
    --proxy-digest    在代理上使用数字身份验证
    --proxy-ntlm    在代理上使用ntlm身份验证
-P/--ftp-port <address>    使用端口地址,而不是使用PASV
-q    作为第一个参数,关闭 .curlrc
-Q/--quote <cmd>    文件传输前,发送命令到服务器
-r/--range <range>    检索来自HTTP/1.1或FTP服务器字节范围
--range-file    读取(SSL)的随机文件
-R/--remote-time    在本地生成文件时,保留远程文件时间
    --retry <num>    传输出现问题时,重试的次数
    --retry-delay <seconds>    传输出现问题时,设置重试间隔时间
    --retry-max-time <seconds>    传输出现问题时,设置最大重试时间
-s/--silent    静默模式。不输出任何东西
-S/--show-error    显示错误
    --socks4 <host[:port]>    用socks4代理给定主机和端口
    --socks5 <host[:port]>    用socks5代理给定主机和端口
    --stderr <file>     
-t/--telnet-option <OPT=val>    Telnet选项设置
    --trace <file>    对指定文件进行debug
    --trace-ascii <file>    Like --跟踪但没有hex输出
    --trace-time    跟踪/详细输出时,添加时间戳
-T/--upload-file <file>    上传文件
    --url <URL>    Spet URL to work with
-u/--user <user[:password]>    设置服务器的用户和密码
-U/--proxy-user <user[:password]>    设置代理用户名和密码
-w/--write-out [format]    什么输出完成后
-x/--proxy <host[:port]>    在给定的端口上使用HTTP代理
-X/--request <command>    指定什么命令
-y/--speed-time    放弃限速所要的时间,默认为30
-Y/--speed-limit    停止传输速度的限制,速度时间

具体可看:http://man.linuxde.net/curl

使用案例

一、查看网页源码

直接在curl命令后加上网址,就可以看到网页源码。我们以网址www.sina.com为例(选择该网址,主要因为它的网页代码较短):

  $ curl www.sina.com

  <!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
  <html><head>
  <title>301 Moved Permanently</title>
  </head><body>
  <h1>Moved Permanently</h1>
  <p>The document has moved <a href="http://www.sina.com.cn/">here</a>.</p>
  </body></html>

如果要把这个网页保存下来,可以使用-o参数,这就相当于使用wget命令了。

  $ curl -o [文件名] www.sina.com

二、自动跳转

有的网址是自动跳转的。使用-L参数,curl就会跳转到新的网址。

  $ curl -L www.sina.com

键入上面的命令,结果就自动跳转为www.sina.com.cn。

三、显示头信息

-i参数可以显示http response的头信息,连同网页代码一起。

  $ curl -i www.sina.com

  HTTP/1.0 301 Moved Permanently
  Date: Sat, 03 Sep 2011 23:44:10 GMT
  Server: Apache/2.0.54 (Unix)
  Location: http://www.sina.com.cn/
  Cache-Control: max-age=3600
  Expires: Sun, 04 Sep 2011 00:44:10 GMT
  Vary: Accept-Encoding
  Content-Length: 231
  Content-Type: text/html; charset=iso-8859-1
  Age: 3239
  X-Cache: HIT from sh201-9.sina.com.cn
  Connection: close

  <!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
  <html><head>
  <title>301 Moved Permanently</title>
  </head><body>
  <h1>Moved Permanently</h1>
  <p>The document has moved <a href="http://www.sina.com.cn/">here</a>.</p>
  </body></html>

-I参数则是只显示http response的头信息。

四、显示通信过程

-v参数可以显示一次http通信的整个过程,包括端口连接和http request头信息。

  $ curl -v www.sina.com

  * About to connect() to www.sina.com port 80 (#0)
  * Trying 61.172.201.195... connected
  * Connected to www.sina.com (61.172.201.195) port 80 (#0)
  > GET / HTTP/1.1
  > User-Agent: curl/7.21.3 (i686-pc-linux-gnu) libcurl/7.21.3 OpenSSL/0.9.8o zlib/1.2.3.4 libidn/1.18
  > Host: www.sina.com
  > Accept: */*
  >
  * HTTP 1.0, assume close after body
  < HTTP/1.0 301 Moved Permanently
  < Date: Sun, 04 Sep 2011 00:42:39 GMT
  < Server: Apache/2.0.54 (Unix)
  < Location: http://www.sina.com.cn/
  < Cache-Control: max-age=3600
  < Expires: Sun, 04 Sep 2011 01:42:39 GMT
  < Vary: Accept-Encoding
  < Content-Length: 231
  < Content-Type: text/html; charset=iso-8859-1
  < X-Cache: MISS from sh201-19.sina.com.cn
  < Connection: close
  <
  <!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
  <html><head>
  <title>301 Moved Permanently</title>
  </head><body>
  <h1>Moved Permanently</h1>
  <p>The document has moved <a href="http://www.sina.com.cn/">here</a>.</p>
  </body></html>
  * Closing connection #0

如果你觉得上面的信息还不够,那么下面的命令可以查看更详细的通信过程。

  $ curl --trace output.txt www.sina.com

或者

  $ curl --trace-ascii output.txt www.sina.com

运行后,请打开output.txt文件查看。

五、发送表单信息

发送表单信息有GET和POST两种方法。GET方法相对简单,只要把数据附在网址后面就行。

  $ curl example.com/form.cgi?data=xxx

POST方法必须把数据和网址分开,curl就要用到–data参数。

  $ curl -X POST --data "data=xxx" example.com/form.cgi

如果你的数据没有经过表单编码,还可以让curl为你编码,参数是--data-urlencode

  $ curl -X POST--data-urlencode "date=April 1" example.com/form.cgi

六、HTTP动词

curl默认的HTTP动词是GET,使用-X参数可以支持其他动词。

  $ curl -X POST www.example.com

  $ curl -X DELETE www.example.com

七、文件上传

假定文件上传的表单是下面这样:

  <form method="POST" enctype='multipart/form-data' action="upload.cgi">
    <input type=file name=upload>
    <input type=submit name=press value="OK">
  </form>

你可以用curl这样上传文件:

  $ curl --form upload=@localfilename --form press=OK [URL]

八、Referer字段

有时你需要在http request头信息中,提供一个referer字段,表示你是从哪里跳转过来的。

  $ curl --referer http://www.example.com http://www.example.com

九、User Agent字段

这个字段是用来表示客户端的设备信息。服务器有时会根据这个字段,针对不同设备,返回不同格式的网页,比如手机版和桌面版。

iPhone4的User Agent是

  Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_0 like Mac OS X; en-us) AppleWebKit/532.9 (KHTML, like Gecko) Version/4.0.5 Mobile/8A293 Safari/6531.22.7

curl可以这样模拟:

  $ curl --user-agent "[User Agent]" [URL]

十、cookie

使用--cookie参数,可以让curl发送cookie。

  $ curl --cookie "name=xxx" www.example.com

至于具体的cookie的值,可以从http response头信息的Set-Cookie字段中得到。

-c cookie-file可以保存服务器返回的cookie到文件,-b cookie-file可以使用这个文件作为cookie信息,进行后续的请求。

  $ curl -c cookies http://example.com
  $ curl -b cookies http://example.com

十一、增加头信息

有时需要在http request之中,自行增加一个头信息。--header参数就可以起到这个作用。

  $ curl --header "Content-Type:application/json" http://example.com

十二、HTTP认证

有些网域需要HTTP认证,这时curl需要用到--user参数。

  $ curl --user name:password example.com

十三、监控

1、开启gzip请求

curl -I http://www.sina.com.cn/ -H Accept-Encoding:gzip,defalte

2、监控网页的响应时间

curl -o /dev/null -s -w "time_connect: %{time_connect}\ntime_starttransfer: %{time_starttransfer}\ntime_total: %{time_total}\n" "http://www.kklinux.com"

3、 监控站点可用性

curl -o /dev/null -s -w %{http_code} "http://www.kklinux.com"