贝利信息

php远程访问文件怎么打开_phpcurl分块读取远程大文件法【分块】

日期:2026-01-14 00:00 / 作者:蓮花仙者
正确做法是关闭CURLOPT_RETURNTRANSFER(设为false),用CURLOPT_WRITEFUNCTION回调流式处理数据,维护缓冲区按行切分并安全解析JSON;fopen('http://...')缺乏超时、

重试、Header控制等能力,不适合生产环境大文件下载。

PHP 用 cURL 分块读取远程大文件时,curl_setopt($ch, CURLOPT_RETURNTRANSFER, true) 会吃光内存

这是最常踩的坑:想边下载边处理,却误设 CURLOPT_RETURNTRANSFERtrue,导致整个响应体被缓存进内存。1GB 文件直接 OOM。正确做法是关掉它,改用回调函数流式接收。

分块回调函数里怎么安全写入本地文件或解析 JSON 行?

回调不是“每行调用一次”,而是按底层 TCP 包大小推送数据(可能半行、跨行)。不能直接 json_decode($data),要自己做缓冲和行切分。

function writeCallback($ch, $data) {
    static $fp = null;
    static $buffer = '';

    $buffer .= $data;
    while (($pos = strpos($buffer, "\n")) !== false) {
        $line = substr($buffer, 0, $pos);
        $buffer = substr($buffer, $pos + 1);

        // 示例:写入文件
        if ($fp === null) $fp = fopen('/tmp/output.jsonl', 'wb');
        fwrite($fp, $line . "\n");
    }
    return strlen($data); // 必须返回,否则 cURL 报错 CURLE_WRITE_ERROR
}

为什么 fopen('http://...', 'r') 不适合大文件?

PHP 的 file_get_contentsfopen 封装了 stream wrapper,但默认不支持 chunked 编码下的流式控制,且无法设置超时、重试、Header 等关键参数。遇到 302 重定向或服务端分块传输(Transfer-Encoding: chunked)时行为不可控。

生产环境必须加的防护项

远程文件不可信,不加限制的分块读取可能被恶意响应拖垮服务。

真正难的不是“怎么分块”,而是“怎么在不信任的网络链路里稳住内存、不丢数据、不卡死”。这些细节漏一条,上线就变定时炸弹。