正确做法是关闭CURLOPT_RETURNTRANSFER(设为false),用CURLOPT_WRITEFUNCTION回调流式处理数据,维护缓冲区按行切分并安全解析JSON;fopen('http://...')缺乏超时、重试、Header控制等能力,不适合生产环境大文件下载。
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true) 会吃光内存这是最常踩的坑:想边下载边处理,却误设 CURLOPT_RETURNTRANSFER 为 true,导致整个响应体被缓存进内存。1GB 文件直接 OOM。正确做法是关掉它,改用回调函数流式接收。
CURLOPT_RETURNTRANSFER 必须设为 false(默认值,可不设)CURLOPT_WRITEFUNCTION 指定自定义写入回调,每次只处理 curl 推送的一小段数据(通常几 KB)stream_set_timeout() 或 CURLOPT_TIMEOUT 防止卡死回调不是“每行调用一次”,而是按底层 TCP 包大小推送数据(可能半行、跨行)。不能直接 json_decode($data),要自己做缓冲和行切分。
$buffer 字符串,拼接每次传入的 $data
strpos($buffer, "\n") 找完整行,substr 截取后更新 $buffer
json_decode($line, true))fwrite($fp, $line . "\n"),避免 file_put_contents(..., FILE_APPEND) 频繁打开文件function writeCallback($ch, $data) {
static $fp = null;
static $buffer = '';
$buffer .= $data;
while (($pos = strpos($buffer, "\n")) !== false) {
$line = substr($buffer, 0, $pos);
$buffer = substr($buffer, $pos + 1);
// 示例:写入文件
if ($fp === null) $fp = fopen('/tmp/output.jsonl', 'wb');
fwrite($fp, $line . "\n");
}
return strlen($data); // 必须返回,否则 cURL 报错 CURLE_WRITE_ERROR
}
fopen('http://...', 'r') 不适合大文件?PHP 的 file_get_contents 和 fopen 封装了 stream wrapper,但默认不支持 chunked 编码下的流式控制,且无法设置超时、重试、Header 等关键参数。遇到 302 重定向或服务端分块传输(Transfer-Encoding: chunked)时行为不可控。
fopen('http://...') 无法获取响应状态码或 Header,出错只能靠 feof() 判断,不准确User-Agent、Authorization 等必要 Headerstream_filter_append 配置复杂)远程文件不可信,不加限制的分块读取可能被恶意响应拖垮服务。
CURLOPT_CONNECTTIMEOUT 和 CURLOPT_TIMEOUT 控制连接与总耗时(例如各 30 秒)CURLOPT_HEADERFUNCTION 检查 Content-Length 或 Content-Type,非预期类型提前中止curl_close($ch) 并报错CURLOPT_FOLLOWLOCATION 设为 false),防止跳转到不可控地址真正难的不是“怎么分块”,而是“怎么在不信任的网络链路里稳住内存、不丢数据、不卡死”。这些细节漏一条,上线就变定时炸弹。