所有分类
  • 所有分类
  • 织梦模板

大文件怎么快速上传?最实用的实现方法!

大文件快速上传的方案,相信你也有过了解,其实无非就是将 文件变小,也就是通过 压缩文件资源 或者 文件资源分块 后再上传。

本文只介绍资源分块上传的方式,并且会通过 前端(vue3 + vite) 和 服务端(nodejs + koa2) 交互的方式,实现大文件分块上传的简单功能。

梳理思路

问题 1:谁负责资源分块?谁负责资源整合?

当然这个问题也很简单,肯定是前端负责分块,服务端负责整合。

问题 2:前端怎么对资源进行分块?

首先是选择上传的文件资源,接着就可以得到对应的文件对象 File,而 File.prototype.slice 方法可以实现资源的分块,当然也有人说是 Blob.prototype.slice 方法,因为 Blob.prototype.slice === File.prototype.slice

问题 3:服务端怎么知道什么时候要整合资源?如何保证资源整合的有序性?

由于前端会将资源分块,然后单独发送请求,也就是说,原来 1 个文件对应 1 个上传请求,现在可能会变成 1 个文件对应 n 个上传请求,所以前端可以基于 Promise.all 将这多个接口整合,上传完成在发送一个合并的请求,通知服务端进行合并。

合并时可通过 nodejs 中的读写流(readStream/writeStream),将所有切片的流通过管道(pipe)输入最终文件的流中。

在发送请求资源时,前端会定好每个文件对应的序号,并将当前分块、序号以及文件 hash 等信息一起发送给服务端,服务端在进行合并时,通过序号进行依次合并即可。

问题 4:如果某个分块的上传请求失败了,怎么办?

一旦服务端某个上传请求失败,会返回当前分块失败的信息,其中会包含文件名称、文件 hash、分块大小以及分块序号等,前端拿到这些信息后可以进行重传,同时考虑此时是否需要将 Promise.all 替换为 Promise.allSettled 更方便。

前端部分

创建项目

通过 pnpm create vite 创建项目,对应文件目录如下.

请求模块

src/request.js

该文件就是针对 axios 进行简单的封装,如下:

  1. import axios from "axios";
  2. const baseURL = 'http://localhost:3001';
  3. export const uploadFile = (url, formData, onUploadProgress = () => { }) => {
  4.   return axios({
  5.     method: 'post',
  6.     url,
  7.     baseURL,
  8.     headers: {
  9.       'Content-Type': 'multipart/form-data'
  10.     },
  11.     data: formData,
  12.     onUploadProgress
  13.   });
  14. }
  15. export const mergeChunks = (url, data) => {
  16.   return axios({
  17.     method: 'post',
  18.     url,
  19.     baseURL,
  20.     headers: {
  21.       'Content-Type': 'application/json'
  22.     },
  23.     data
  24.   });
  25. }

文件资源分块

根据 DefualtChunkSize = 5 * 1024 * 1024 ,即 5 MB ,来对文件进行资源分块进行计算,通过 spark-md5[1] 根据文件内容计算出文件的 hash 值,方便做其他优化,比如:当 hash 值不变时,服务端没有必要重复读写文件等。

  1. // 获取文件分块
  2. const getFileChunk = (file, chunkSize = DefualtChunkSize) => {
  3.   return new Promise((resovle) => {
  4.     let blobSlice = File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice,
  5.       chunks = Math.ceil(file.size / chunkSize),
  6.       currentChunk = 0,
  7.       spark = new SparkMD5.ArrayBuffer(),
  8.       fileReader = new FileReader();
  9.     fileReader.onload = function (e) {
  10.       console.log('read chunk nr', currentChunk + 1, 'of');
  11.       const chunk = e.target.result;
  12.       spark.append(chunk);
  13.       currentChunk++;
  14.       if (currentChunk < chunks) {
  15.         loadNext();
  16.       } else {
  17.         let fileHash = spark.end();
  18.         console.info('finished computed hash', fileHash);
  19.         resovle({ fileHash });
  20.       }
  21.     };
  22.     fileReader.onerror = function () {
  23.       console.warn('oops, something went wrong.');
  24.     };
  25.     function loadNext() {
  26.       let start = currentChunk * chunkSize,
  27.         end = ((start + chunkSize) >= file.size) ? file.size : start + chunkSize;
  28.       let chunk = blobSlice.call(file, start, end);
  29.       fileChunkList.value.push({ chunk, size: chunk.size, name: currFile.value.name });
  30.       fileReader.readAsArrayBuffer(chunk);
  31.     }
  32.     loadNext();
  33.   });
  34. }

发送上传请求和合并请求

通过 Promise.all 方法整合所以分块的上传请求,在所有分块资源上传完毕后,在 then 中发送合并请求。

  1. // 上传请求
  2. const uploadChunks = (fileHash) => {
  3.   const requests = fileChunkList.value.map((item, index) => {
  4.     const formData = new FormData();
  5.     formData.append(`${currFile.value.name}-${fileHash}-${index}`, item.chunk);
  6.     formData.append("filename", currFile.value.name);
  7.     formData.append("hash", `${fileHash}-${index}`);
  8.     formData.append("fileHash", fileHash);
  9.     return uploadFile('/upload', formData, onUploadProgress(item));
  10.   });
  11.   Promise.all(requests).then(() => {
  12.     mergeChunks('/mergeChunks', { size: DefualtChunkSize, filename: currFile.value.name });
  13.   });
  14. }

进度条数据

分块进度数据利用 axios 中的 onUploadProgress 配置项获取数据,通过使用computed 根据分块进度数据的变化自动自动计算当前文件的总进度。

  1. // 总进度条
  2. const totalPercentage = computed(() => {
  3.   if (!fileChunkList.value.length) return 0;
  4.   const loaded = fileChunkList.value
  5.     .map(item => item.size * item.percentage)
  6.     .reduce((curr, next) => curr + next);
  7.   return parseInt((loaded / currFile.value.size).toFixed(2));
  8. })
  9. // 分块进度条
  10. const onUploadProgress = (item) => (e) => {
  11.   item.percentage = parseInt(String((e.loaded / e.total) * 100));
  12. }

服务端部分

搭建服务

使用 koa2 搭建简单的服务,端口为 3001

使用 koa-body 处理接收前端传递 'Content-Type': 'multipart/form-data' 类型的数据

使用 koa-router 注册服务端路由

使用 koa2-cors 处理跨域问题

目录/文件划分

server/server.js

该文件是服务端具体的代码实现,用于处理接收和整合分块资源。

server/resources

该目录是用于存放单文件的多个分块,以及最后分块整合后的资源:

分块资源未合并时,会在该目录下以当前文件名创建一个目录,用于存放这个该文件相关的所有分块

分块资源需合并时,会读取这个文件对应的目录下的所有分块资源,然后将它们整合成原文件

分块资源合并完成,会删除这个对应的文件目录,只保留合并后的原文件,生成的文件名比真实文件名多一个 _ 前缀,如原文件名 "测试文件.txt" 对应合并后的文件名 "_测试文件.txt"

接收分块

使用 koa-body 中的 formidable 配置中的 onFileBegin 函数处理前端传来的 FormData 中的文件资源,在前端处理对应分块名时的格式为:filename-fileHash-index,所以这里直接将分块名拆分即可获得对应的信息。

  1. // 上传请求
  2. router.post(
  3.   '/upload',
  4.   // 处理文件 form-data 数据
  5.   koaBody({
  6.     multipart: true,
  7.     formidable: {
  8.       uploadDir: outputPath,
  9.       onFileBegin: (name, file) => {
  10.         const [filename, fileHash, index] = name.split('-');
  11.         const dir = path.join(outputPath, filename);
  12.         // 保存当前 chunk 信息,发生错误时进行返回
  13.         currChunk = {
  14.           filename,
  15.           fileHash,
  16.           index
  17.         };
  18.         // 检查文件夹是否存在如果不存在则新建文件夹
  19.         if (!fs.existsSync(dir)) {
  20.           fs.mkdirSync(dir);
  21.         }
  22.         // 覆盖文件存放的完整路径
  23.         file.path = `${dir}/${fileHash}-${index}`;
  24.       },
  25.       onError: (error) => {
  26.         app.status = 400;
  27.         app.body = { code: 400, msg: "上传失败", data: currChunk };
  28.         return;
  29.       },
  30.     },
  31.   }),
  32.   // 处理响应
  33.   async (ctx) => {
  34.     ctx.set("Content-Type", "application/json");
  35.     ctx.body = JSON.stringify({
  36.       code: 2000,
  37.       message: 'upload successfully!'
  38.     });
  39.   }
  40. );

整合分块

通过文件名找到对应文件分块目录,使用 fs.readdirSync(chunkDir) 方法获取对应目录下所以分块的命名,在通过 fs.createWriteStream/fs.createReadStream 创建可写/可读流,结合管道 pipe 将流整合在同一文件中,合并完成后通过 fs.rmdirSync(chunkDir) 删除对应分块目录。

  1. // 合并请求
  2. router.post('/mergeChunks', async (ctx) => {
  3.   const { filename, size } = ctx.request.body;
  4.   // 合并 chunks
  5.   await mergeFileChunk(path.join(outputPath, '_' + filename), filename, size);
  6.   // 处理响应
  7.   ctx.set("Content-Type", "application/json");
  8.   ctx.body = JSON.stringify({
  9.     data: {
  10.       code: 2000,
  11.       filename,
  12.       size
  13.     },
  14.     message: 'merge chunks successful!'
  15.   });
  16. });
  17. // 通过管道处理流 
  18. const pipeStream = (path, writeStream) => {
  19.   return new Promise(resolve => {
  20.     const readStream = fs.createReadStream(path);
  21.     readStream.pipe(writeStream);
  22.     readStream.on("end", () => {
  23.       fs.unlinkSync(path);
  24.       resolve();
  25.     });
  26.   });
  27. }
  28. // 合并切片
  29. const mergeFileChunk = async (filePath, filename, size) => {
  30.   const chunkDir = path.join(outputPath, filename);
  31.   const chunkPaths = fs.readdirSync(chunkDir);
  32.   if (!chunkPaths.length) return;
  33.   // 根据切片下标进行排序,否则直接读取目录的获得的顺序可能会错乱
  34.   chunkPaths.sort((a, b) => a.split("-")[1] - b.split("-")[1]);
  35.   console.log("chunkPaths = ", chunkPaths);
  36.   await Promise.all(
  37.     chunkPaths.map((chunkPath, index) =>
  38.       pipeStream(
  39.         path.resolve(chunkDir, chunkPath),
  40.         // 指定位置创建可写流
  41.         fs.createWriteStream(filePath, {
  42.           start: index * size,
  43.           end: (index + 1) * size
  44.         })
  45.       )
  46.     )
  47.   );
  48.   // 合并后删除保存切片的目录
  49.   fs.rmdirSync(chunkDir);
  50. };

前端 & 服务端 交互

前端分块上传

测试文件信息:

选择文件类型为 19.8MB,而且上面设定默认分块大小为 5MB ,于是应该要分成 4 个分块,即 4 个请求。

服务端分块接收

前端发送合并请求

服务端合并分块

扩展 —— 断点续传 & 秒传

有了上面的核心逻辑之后,要实现断点续传和秒传的功能,只需要在取扩展即可,这里不再给出具体实现,只列出一些思路。

断点续传

断点续传其实就是让请求可中断,然后在接着上次中断的位置继续发送,此时要保存每个请求的实例对象,以便后期取消对应请求,并将取消的请求保存或者记录原始分块列表取消位置信息等,以便后期重新发起请求。

取消请求的几种方式:

如果使用原生 XHR 可使用 (new XMLHttpRequest()).abort() 取消请求

如果使用 axios 可使用 new CancelToken(function (cancel) {}) 取消请求

如果使用 fetch 可使用 (new AbortController()).abort() 取消请求

秒传

不要被这个名字给误导了,其实所谓的秒传就是不用传,在正式发起上传请求时,先发起一个检查请求,这个请求会携带对应的文件 hash 给服务端,服务端负责查找是否存在一模一样的文件 hash,如果存在此时直接复用这个文件资源即可,不需要前端在发起额外的上传请求。

常见问题
所有VIP可以商用吗,会不会有版权问题?
本站提供的源码大部分可以作为源码开发参考和学习,部分开源可商用。
账号可以分享给其他人使用吗?
您好,账号禁止共享,我们有验证机制的,会自动封号处理,谢谢配合。
如果遇到问题怎么联系解决呢?
最快的途径是在导航菜单选择提交【售后】会在24小时处理
下载的源码可以使用吗?
我们会在显著的地方表明【已测试】,显示已测试的都是小编测试过 。
1. 本站所有资源来源于用户上传和网络,因此不包含技术服务请大家谅解!
2. 本站不保证所提供下载的资源的准确性、安全性和完整性,资源仅供下载学习之用!如有链接无法下载、失效或广告,请联系客服处理!
3. 您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容资源!如用于商业或者非法用途,与本站无关,一切后果请用户自负!
4. 如果您也有好的资源或教程,您可以投稿发布,成功分享后有站币奖励和额外收入!
5.如有侵权请联系客服邮件770973008@qq.com
原文链接:https://www.56admin.com/24339.html,转载请注明出处。
0
分享海报

评论0

请先
九年老站,质量有保证,90%亲自测试!优惠原价199模板币终生SVIP,优惠价68模板币! 数量有限! 购买SVIP 所有资源免积分下载,畅享无忧!
显示验证码
没有账号?注册  忘记密码?