当前位置: 首页 > 新闻动态 > 网络资讯

如何高效批量插入一百万行数据到 Laravel 数据库

作者:霞舞 浏览: 发布日期:2026-02-02
[导读]:本文详解在Laravel8中安全、高效地将百万级手机号(源自textarea)批量插入数据库的完整方案,规避内存溢出、超时错误与HTTP500问题,推荐使用流式分批+内存控制+命令行替代方案。

本文详解在 laravel 8 中安全、高效地将百万级手机号(源自 textarea)批量插入数据库的完整方案,规避内存溢出、超时错误与 http 500 问题,推荐使用流式分批 + 内存控制 + 命令行替代方案。

在 Web 请求中一次性处理 1,000,000 行数据(如从

✅ 正确做法是:边解析、边过滤、边组装、边插入,严格控制单批次内存占用,并彻底避免累积百万级对象于内存中

以下是优化后的核心逻辑(修复原代码关键缺陷):

public function mobile_store(Request $request)
{
    $request->validate(['mobile' => 'required|string']);

    // 按行分割(兼容 \r\n、\n、\r)
    $lines = preg_split('/[\r\n]+/', trim($request->mobile), -1, PREG_SPLIT_NO_EMPTY);

    // 使用集合去重(保留顺序,避免 array_unique 重索引问题)
    $uniqueLines = collect($lines)->unique()->filter(function ($line) {
        return strlen(trim($line)) >= 10; // 至少 10 位有效数字
    })->map(function ($line) {
        $clean = trim($line);
        // 统一格式:+98 + 后10位数字(自动截取,防超长)
        return '+98' . substr($clean, -10);
    });

    // 流式分批插入:每 5000 条执行一次 insert,不累积全部数据
    $batch = [];
    $totalInserted = 0;
    $now = Carbon::now();

    foreach ($uniqueLines as $mobile) {
        $batch[] = [
            'mobile' => $mobile,
            'created_at' => $now,
            'updated_at' => $now,
        ];

        if (count($batch) >= 5000) {
            Mobile::insert($batch);
            $totalInserted += count($batch);
            $batch = []; // 立即释放内存
        }
    }

    // 插入剩余不足 5000 条的数据
    if (!empty($batch)) {
        Mobile::insert($batch);
        $totalInserted += count($batch);
    }

    return redirect()

->back()->with('success', "成功插入 {$totalInserted} 条唯一手机号"); }

⚠️ 关键优化说明:

  • 不使用 collect()->chunk():原代码先 collect($Filter)->chunk(5000),仍需将全部数据载入内存,未解决根本问题;
  • 用原生数组替代 Collection 批处理:$batch[] 比 $insert_data->push() 内存开销更低,且 count($batch) 比 ->count() 更快;
  • 预计算 Carbon::now():避免在循环内重复调用,提升性能;
  • 正则分割兼容换行符:preg_split('/[\r\n]+/', ...) 比 explode("\r\n", ...) 更鲁棒;
  • 提前过滤空行与无效长度:减少无效迭代。

? 进阶建议(强烈推荐用于百万级场景):

  1. 迁移到 Artisan 命令(最佳实践)
    将导入逻辑封装为命令行任务,彻底绕过 Web 超时与内存限制:

    php artisan mobile:import --file=/path/to/mobiles.txt

    命令中可启用 DB::transaction()、使用 DB::table()->upsert()(Laravel 9+)、或结合 cursor() 分页读取大文件。

  2. 前端配合优化

    • 添加 enctype="multipart/form-data" + 文件上传(而非 textarea),服务端用 fopen() 流式读取;
    • 或使用 AJAX 分片上传(如 10,000 行/次),后端提供进度接口。
  3. 数据库层面调优

    • 导入前禁用索引(ALTER TABLE mobiles DISABLE KEYS)和外键检查;
    • 导入后重建索引;
    • 使用 INSERT INTO ... VALUES (),(),... 批量语法(Laravel insert() 已自动实现)。

? 总结:Web 请求不适合百万级同步导入。当前方案可稳定处理 50 万行以内;超大规模务必转向 CLI 命令 + 文件流式处理 + 数据库调优组合策略,兼顾稳定性、可观测性与运维友好性。

免责声明:转载请注明出处:http://m.hclxt.cn/news/804012.html

扫一扫高效沟通

多一份参考总有益处

免费领取网站策划SEO优化策划方案

请填写下方表单,我们会尽快与您联系
感谢您的咨询,我们会尽快给您回复!