騰訊面試官:請你實現(xiàn)一個大文件上傳和斷點續(xù)傳

前言

這段時間面試官都挺忙的哈,頻頻出現(xiàn)在很多的博客文章標題里,雖然我不是特別想蹭熱度,但是實在想不到好的標題了哈哈哈哈,我就蹭蹭保證不亂來(唉呀媽呀真香)

事實上我在面試的時候確實被問到了這個問題,而且是一道在線 coding 的編程題,當時雖然思路正確,可惜最終也并不算完全答對

結(jié)束后花了一段時間整理了下思路,那么究竟該如何實現(xiàn)一個大文件上傳,以及在上傳中如何實現(xiàn)斷點續(xù)傳的功能呢?

本文將從零搭建前端和服務端,實現(xiàn)一個大文件上傳和斷點續(xù)傳的 demo

前端:vue element-ui

服務端:nodejs

文章有誤解的地方,歡迎指出,將在第一時間改正,有更好的實現(xiàn)方式希望留下你的評論
大文件上傳

整體思路

前端

前端大文件上傳網(wǎng)上的大部分文章已經(jīng)給出了解決方案,核心是Blob.prototype.slice 方法,和數(shù)組的 slice 方法相似,調(diào)用的 slice 方法可以返回原文件的某個切片

這樣我們就可以根據(jù)預先設(shè)置好的切片最大數(shù)量將文件切分為一個個切片,然后借助 http 的可并發(fā)性,同時上傳多個切片,這樣從原本傳一個大文件,變成了同時傳多個小的文件切片,可以大大減少上傳時間

另外由于是并發(fā),傳輸?shù)椒斩说捻樞蚩赡軙l(fā)生變化,所以我們還需要給每個切片記錄順序

服務端

服務端需要負責接受這些切片,并在接收到所有切片后合并切片

這里又引伸出兩個問題

  1. 何時合并切片,即切片什么時候傳輸完成
  2. 如何合并切片

第一個問題需要前端進行配合,前端在每個切片中都攜帶切片最大數(shù)量的信息,當服務端接受到這個數(shù)量的切片時自動合并,也可以額外發(fā)一個請求主動通知服務端進行切片的合并

第二個問題,具體如何合并切片呢?這里可以使用 nodejs 的 api fs.appendFileSync,它可以同步地將數(shù)據(jù)追加到指定文件,也就是說,當服務端接受到所有切片后,先創(chuàng)建一個最終的文件,然后將所有切片逐步合并到這個文件中

talk is cheap,show me the code,接著我們用代碼實現(xiàn)上面的思路

前端部分

前端使用 Vue 作為開發(fā)框架,對界面沒有太大要求,原生也可以,考慮到美觀使用 element-ui 作為 UI 框架

上傳控件

首先創(chuàng)建選擇文件的控件,監(jiān)聽 change 事件以及上傳按鈕

<template>
   <div>
    <input type="file" @change="handleFileChange" />
    <el-button @click="handleUpload">上傳</el-button>
  </div>
</template>

<script>
export default {
  data: () => ({
    container: {
      file: null
    }
  }),
  methods: {
     handleFileChange(e) {
      const [file] = e.target.files;
      if (!file) return;
      Object.assign(this.$data, this.$options.data());
      this.container.file = file;
    },
    async handleUpload() {}
  }
};
</script>

image

請求邏輯

考慮到通用性,這里沒有用第三方的請求庫,而是用原生 XMLHttpRequest 做一層簡單的封裝來發(fā)請求

request({
      url,
      method = "post",
      data,
      headers = {},
      requestList
    }) {
      return new Promise(resolve => {
        const xhr = new XMLHttpRequest();
        xhr.open(method, url);
        Object.keys(headers).forEach(key =>
          xhr.setRequestHeader(key, headers[key])
        );
        xhr.send(data);
        xhr.onload = e => {
          resolve({
            data: e.target.response
          });
        };
      });
    }

上傳切片

接著實現(xiàn)比較重要的上傳功能,上傳需要做兩件事

  • 對文件進行切片
  • 將切片傳輸給服務端
<template>
  <div>
    <input type="file" @change="handleFileChange" />
    <el-button @click="handleUpload">上傳</el-button>
  </div>
</template>

<script>
+ const LENGTH = 10; // 切片數(shù)量

export default {
  data: () => ({
    container: {
      file: null,
+     data: []
    }
  }),
  methods: {
    request() {},
    handleFileChange() {},
+    // 生成文件切片
+    createFileChunk(file, length = LENGTH) {
+      const fileChunkList = [];
+      const chunkSize = Math.ceil(file.size / length);
+      let cur = 0;
+      while (cur < file.size) {
+        fileChunkList.push({ file: file.slice(cur, cur + chunkSize) });
+        cur += chunkSize;
+      }
+      return fileChunkList;
+    },
+   // 上傳切片
+    async uploadChunks() {
+      const requestList = this.data
+        .map(({ chunk }) => {
+          const formData = new FormData();
+          formData.append("chunk", chunk);
+                    formData.append("hash", hash);
+          formData.append("filename", this.container.file.name);
+          return { formData };
+        })
+        .map(async ({ formData }) =>
+          this.request({
+            url: "http://localhost:3000",
+            data: formData
+          })
+        );
+      await Promise.all(requestList); // 并發(fā)切片
+    },
+    async handleUpload() {
+      if (!this.container.file) return;
+      const fileChunkList = this.createFileChunk(this.container.file);
+      this.data = fileChunkList.map(({ file },index) => ({
+        chunk: file,
+        hash: this.container.file.name + "-" + index // 文件名 + 數(shù)組下標
+      }));
+      await this.uploadChunks();
+    }
  }
};
</script>

當點擊上傳按鈕時,調(diào)用 createFileChunk 將文件切片,切片數(shù)量通過一個常量 Length 控制,這里設(shè)置為 10,即將文件分成 10 個切片上傳

createFileChunk 內(nèi)使用 while 循環(huán)和 slice 方法將切片放入 fileChunkList 數(shù)組中返回

在生成文件切片時,需要給每個切片一個標識作為 hash,這里暫時使用文件名 + 下標,這樣后端可以知道當前切片是第幾個切片,用于之后的合并切片

隨后調(diào)用 uploadChunks 上傳所有的文件切片,將文件切片,切片 hash,以及文件名放入 FormData 中,再調(diào)用上一步的 request 函數(shù)返回一個 proimise,最后調(diào)用 Promise.all 并發(fā)上傳所有的切片

發(fā)送合并請求

這里使用整體思路中提到的第二種合并切片的方式,即前端主動通知服務端進行合并,所以前端還需要額外發(fā)請求,服務端接受到這個請求時主動合并切片

<template>
  <div>
    <input type="file" @change="handleFileChange" />
    <el-button @click="handleUpload">上傳</el-button>
  </div>
</template>

<script>
export default {
  data: () => ({
    container: {
      file: null
    },
    data: []
  }),
  methods: {
    request() {},
    handleFileChange() {},
    createFileChunk() {},
    // 上傳切片,同時過濾已上傳的切片
    async uploadChunks() {
      const requestList = this.data
        .map(({ chunk }) => {
          const formData = new FormData();
          formData.append("chunk", chunk);
          formData.append("hash", hash);
          formData.append("filename", this.container.file.name);
          return { formData };
        })
        .map(async ({ formData }) =>
          this.request({
            url: "http://localhost:3000",
            data: formData
          })
        );
      await Promise.all(requestList);
+      // 合并切片
+     await this.mergeRequest();
    },
+    async mergeRequest() {
+      await this.request({
+        url: "http://localhost:3000/merge",
+        headers: {
+          "content-type": "application/json"
+        },
+        data: JSON.stringify({
+          filename: this.container.file.name
+        })
+      });
+    },    
    async handleUpload() {}
  }
};
</script>

服務端部分

簡單使用 http 模塊搭建服務端

const http = require("http");
const server = http.createServer();

server.on("request", async (req, res) => {
  res.setHeader("Access-Control-Allow-Origin", "*");
  res.setHeader("Access-Control-Allow-Headers", "*");
  if (req.method === "OPTIONS") {
    res.status = 200;
    res.end();
    return;
  }
});

server.listen(3000, () => console.log("正在監(jiān)聽 3000 端口"));

接受切片

使用 multiparty 包處理前端傳來的 FormData

在 multiparty.parse 的回調(diào)中,files 參數(shù)保存了 FormData 中文件,fields 參數(shù)保存了 FormData 中非文件的字段

const http = require("http");
const path = require("path");
const fse = require("fs-extra");
const multiparty = require("multiparty");

const server = http.createServer();
+ const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存儲目錄

server.on("request", async (req, res) => {
  res.setHeader("Access-Control-Allow-Origin", "*");
  res.setHeader("Access-Control-Allow-Headers", "*");
  if (req.method === "OPTIONS") {
    res.status = 200;
    res.end();
    return;
  }

+  const multipart = new multiparty.Form();

+  multipart.parse(req, async (err, fields, files) => {
+    if (err) {
+      return;
+    }
+    const [chunk] = files.chunk;
+    const [hash] = fields.hash;
+    const [filename] = fields.filename;
+    const chunkDir = `${UPLOAD_DIR}/${filename}`;

+   // 切片目錄不存在,創(chuàng)建切片目錄
+    if (!fse.existsSync(chunkDir)) {
+      await fse.mkdirs(chunkDir);
+    }

+      // fs-extra 專用方法,類似 fs.rename 并且跨平臺
+      // fs-extra 的 rename 方法 windows 平臺會有權(quán)限問題
+      // https://github.com/meteor/meteor/issues/7852#issuecomment-255767835
+      await fse.move(chunk.path, `${chunkDir}/${hash}`);
+    res.end("received file chunk");
+  });
});

server.listen(3000, () => console.log("正在監(jiān)聽 3000 端口"));

image

查看 multiparty 處理后的 chunk 對象,path 是存儲臨時文件的路徑,size 是臨時文件大小,在 multiparty 文檔中提到可以使用 fs.rename(由于我用的是 fs-extra,rename windows 平臺權(quán)限問題,所以換成了 fse.move) 重命名的方式移動臨時文件,也就是文件切片

在接受文件切片時,需要先創(chuàng)建存儲切片的文件夾,由于前端在發(fā)送每個切片時額外攜帶了唯一值 hash,所以以 hash 作為文件名,將切片從臨時路徑移動切片文件夾中,最后的結(jié)果如下

image

合并切片

在接收到前端發(fā)送的合并請求后,服務端將文件夾下的所有切片進行合并

const http = require("http");
const path = require("path");
const fse = require("fs-extra");

const server = http.createServer();
const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存儲目錄

+ const resolvePost = req =>
+   new Promise(resolve => {
+     let chunk = "";
+     req.on("data", data => {
+       chunk += data;
+     });
+     req.on("end", () => {
+       resolve(JSON.parse(chunk));
+     });
+   });

+ // 合并切片
+ const mergeFileChunk = async (filePath, filename) => {
+   const chunkDir = `${UPLOAD_DIR}/${filename}`;
+   const chunkPaths = await fse.readdir(chunkDir);
+   await fse.writeFile(filePath, "");
+   chunkPaths.forEach(chunkPath => {
+     fse.appendFileSync(filePath, fse.readFileSync(`${chunkDir}/${chunkPath}`));
+     fse.unlinkSync(`${chunkDir}/${chunkPath}`);
+   });
+   fse.rmdirSync(chunkDir); // 合并后刪除保存切片的目錄
+ };

server.on("request", async (req, res) => {
  res.setHeader("Access-Control-Allow-Origin", "*");
  res.setHeader("Access-Control-Allow-Headers", "*");
  if (req.method === "OPTIONS") {
    res.status = 200;
    res.end();
    return;
  }

+   if (req.url === "/merge") {
+     const data = await resolvePost(req);
+     const { filename } = data;
+     const filePath = `${UPLOAD_DIR}/${filename}`;
+     await mergeFileChunk(filePath, filename);
+     res.end(
+       JSON.stringify({
+         code: 0,
+         message: "file merged success"
+       })
+     );
+   }

});

server.listen(3000, () => console.log("正在監(jiān)聽 3000 端口"));

由于前端在發(fā)送合并請求時會攜帶文件名,服務端根據(jù)文件名可以找到上一步創(chuàng)建的切片文件夾

接著使用 fs.writeFileSync 先創(chuàng)建一個空文件,這個空文件的文件名就是切片文件夾名 + 后綴名組合而成,隨后通過 fs.appendFileSync 從切片文件夾中不斷將切片合并到空文件中,每次合并完成后刪除這個切片,等所有切片都合并完畢后最后刪除切片文件夾

image

至此一個簡單的大文件上傳就完成了,接下來我們再此基礎(chǔ)上擴展一些額外的功能

顯示上傳進度條

上傳進度分兩種,一個是每個切片的上傳進度,另一個是整個文件的上傳進度,而整個文件的上傳進度是基于每個切片上傳進度計算而來,所以我們先實現(xiàn)切片的上傳進度

切片進度條

XMLHttpRequest 原生支持上傳進度的監(jiān)聽,只需要監(jiān)聽 upload.onprogress 即可,我們在原來的 request 基礎(chǔ)上傳入 onProgress 參數(shù),給 XMLHttpRequest 注冊監(jiān)聽事件

 // xhr
    request({
      url,
      method = "post",
      data,
      headers = {},
+      onProgress = e => e,
      requestList
    }) {
      return new Promise(resolve => {
        const xhr = new XMLHttpRequest();
+        xhr.upload.onprogress = onProgress;
        xhr.open(method, url);
        Object.keys(headers).forEach(key =>
          xhr.setRequestHeader(key, headers[key])
        );
        xhr.send(data);
        xhr.onload = e => {
          resolve({
            data: e.target.response
          });
        };
      });
    }

由于每個切片都需要觸發(fā)獨立的監(jiān)聽事件,所以還需要一個工廠函數(shù),根據(jù)傳入的切片返回不同的監(jiān)聽函數(shù)

在原先的前端上傳邏輯中新增監(jiān)聽函數(shù)部分

    // 上傳切片,同時過濾已上傳的切片
    async uploadChunks(uploadedList = []) {
      const requestList = this.data
        .map(({ chunk }) => {
          const formData = new FormData();
          formData.append("chunk", chunk);
          formData.append("filename", this.container.file.name);
          return { formData };
        })
        .map(async ({ formData }) =>
          this.request({
            url: "http://localhost:3000",
            data: formData,
+           onProgress: this.createProgressHandler(this.data[index]),
          })
        );
      await Promise.all(requestList);
       // 合并切片
      await this.mergeRequest();
    },
    async handleUpload() {
      if (!this.container.file) return;
      const fileChunkList = this.createFileChunk(this.container.file);
      this.data = fileChunkList.map(({ file },index) => ({
        chunk: file,
+       index,
        hash: this.container.file.name + "-" + index
+       percentage:0
      }));
      await this.uploadChunks();
    }    
+   createProgressHandler(item) {
+      return e => {
+        item.percentage = parseInt(String((e.loaded / e.total) * 100));
+      };
+    }

每個切片在上傳時都會通過監(jiān)聽函數(shù)更新 data 數(shù)組對應元素的 percentage 屬性,之后把將 data 數(shù)組放到視圖中展示即可

文件進度條

將每個切片已上傳的部分累加,除以整個文件的大小,就能得出當前文件的上傳進度,所以這里使用 Vue 計算屬性

  computed: {
       uploadPercentage() {
          if (!this.container.file || !this.data.length) return 0;
          const loaded = this.data
            .map(item => item.size * item.percentage)
            .reduce((acc, cur) => acc + cur);
          return parseInt((loaded / this.container.file.size).toFixed(2));
        }
 }

最終視圖如下

image

斷點續(xù)傳

斷點續(xù)傳的原理在于前端/服務端需要記住已上傳的切片,這樣下次上傳就可以跳過之前已上傳的部分,有兩種方案實現(xiàn)記憶的功能

  • 前端使用 localStorage 記錄已上傳的切片 hash
  • 服務端保存已上傳的切片 hash,前端每次上傳前向服務端獲取已上傳的切片

第一種是前端的解決方案,第二種是服務端,而前端方案有一個缺陷,如果換了個瀏覽器就失去了記憶的效果,所以這里選取后者

生成 hash

無論是前端還是服務端,都必須要生成文件和切片的 hash,之前我們使用文件名 + 切片下標作為切片 hash,這樣做文件名一旦修改就失去了效果,而事實上只要文件內(nèi)容不變,hash 就不應該變化,所以正確的做法是根據(jù)文件內(nèi)容生成 hash,所以我們修改一下 hash 的生成規(guī)則

這里用到另一個庫 spark-md5,它可以根據(jù)文件內(nèi)容計算出文件的 hash 值,另外考慮到如果上傳一個超大文件,讀取文件內(nèi)容計算 hash 是非常耗費時間的,并且會引起 UI 的阻塞,導致頁面假死狀態(tài),所以我們使用 web-worker 在 worker 線程計算 hash,這樣用戶仍可以在主界面正常的交互

由于實例化 web-worker 時,參數(shù)是一個 js 文件路徑且不能跨域,所以我們單獨創(chuàng)建一個 hash.js 文件放在 public 目錄下,另外在 worker 中也是不允許訪問 dom 的,但它提供了importScripts 函數(shù)用于導入外部腳本,通過它導入 spark-md5

// /public/hash.js
self.importScripts("/spark-md5.min.js"); // 導入腳本

// 生成文件 hash
self.onmessage = e => {
  const { fileChunkList } = e.data;
  const spark = new self.SparkMD5.ArrayBuffer();
  let percentage = 0;
  let count = 0;
  const loadNext = index => {
    const reader = new FileReader();
    reader.readAsArrayBuffer(fileChunkList[index].file);
    reader.onload = e => {
      count++;
      spark.append(e.target.result);
      if (count === fileChunkList.length) {
        self.postMessage({
          percentage: 100,
          hash: spark.end()
        });
        self.close();
      } else {
        percentage += 100 / fileChunkList.length;
        self.postMessage({
          percentage
        });
        // 遞歸計算下一個切片
        loadNext(count);
      }
    };
  };
  loadNext(0);
};

在 worker 線程中,接受文件切片 fileChunkList,利用 FileReader 讀取每個切片的 ArrayBuffer 并不斷傳入 spark-md5 中,每計算完一個切片通過 postMessage 向主線程發(fā)送一個進度事件,全部完成后將最終的 hash 發(fā)送給主線程

spark-md5 需要根據(jù)所有切片才能算出一個 hash 值,不能直接將整個文件放入計算,否則即使不同文件也會有相同的 hash

接著編寫主線程與 worker 線程通訊的邏輯

+      // 生成文件 hash(web-worker)
+    calculateHash(fileChunkList) {
+      return new Promise(resolve => {
+       // 添加 worker 屬性
+        this.container.worker = new Worker("/hash.js");
+        this.container.worker.postMessage({ fileChunkList });
+        this.container.worker.onmessage = e => {
+          const { percentage, hash } = e.data;
+          this.hashPercentage = percentage;
+          if (hash) {
+            resolve(hash);
+          }
+        };
+      });
    },
    async handleUpload() {
      if (!this.container.file) return;
      const fileChunkList = this.createFileChunk(this.container.file);
+     this.container.hash = await this.calculateHash(fileChunkList);
      this.data = fileChunkList.map(({ file },index) => ({
+       fileHash: this.container.hash,
        chunk: file,
        hash: this.container.file.name + "-" + index, // 文件名 + 數(shù)組下標
        percentage:0
      }));
      await this.uploadChunks();
    }   

主線程使用 postMessage 給 worker 線程傳入所有切片 fileChunkList,并監(jiān)聽 worker 線程發(fā)出的 postMessage 事件拿到文件 hash

加上顯示計算 hash 的進度條,看起來像這樣

image

至此前端需要將之前用文件名作為 hash 的地方改寫為 workder 返回的這個 hash

image

服務端則使用 hash 作為切片文件夾名,hash + 下標作為切片名,hash + 擴展名作為文件名,沒有新增的邏輯

image
image

文件秒傳

在實現(xiàn)斷點續(xù)傳前先簡單介紹一下文件秒傳

所謂的文件秒傳,即在服務端已經(jīng)存在了上傳的資源,所以當用戶再次上傳時會直接提示上傳成功

文件秒傳需要依賴上一步生成的 hash,即在上傳前,先計算出文件 hash,并把 hash 發(fā)送給服務端進行驗證,由于 hash 的唯一性,所以一旦服務端能找到 hash 相同的文件,則直接返回上傳成功的信息即可

+    async verifyUpload(filename, fileHash) {
+       const { data } = await this.request({
+         url: "http://localhost:3000/verify",
+         headers: {
+           "content-type": "application/json"
+         },
+         data: JSON.stringify({
+           filename,
+           fileHash
+         })
+       });
+       return JSON.parse(data);
+     },
   async handleUpload() {
      if (!this.container.file) return;
      const fileChunkList = this.createFileChunk(this.container.file);
      this.container.hash = await this.calculateHash(fileChunkList);
+     const { shouldUpload } = await this.verifyUpload(
+       this.container.file.name,
+       this.container.hash
+     );
+     if (!shouldUpload) {
+       this.$message.success("秒傳:上傳成功");
+       return;
+    }
     this.data = fileChunkList.map(({ file }, index) => ({
        fileHash: this.container.hash,
        index,
        hash: this.container.hash + "-" + index,
        chunk: file,
        percentage: 0
      }));
      await this.uploadChunks();
    }   

秒傳其實就是給用戶看的障眼法,實質(zhì)上根本沒有上傳

image

服務端的邏輯非常簡單,新增一個驗證接口,驗證文件是否存在即可

+ const extractExt = filename =>
+  filename.slice(filename.lastIndexOf("."), filename.length); // 提取后綴名
const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存儲目錄

const resolvePost = req =>
  new Promise(resolve => {
    let chunk = "";
    req.on("data", data => {
      chunk += data;
    });
    req.on("end", () => {
      resolve(JSON.parse(chunk));
    });
  });

server.on("request", async (req, res) => {
  if (req.url === "/verify") {
+    const data = await resolvePost(req);
+    const { fileHash, filename } = data;
+    const ext = extractExt(filename);
+    const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`;
+    if (fse.existsSync(filePath)) {
+      res.end(
+        JSON.stringify({
+          shouldUpload: false
+        })
+      );
+    } else {
+      res.end(
+        JSON.stringify({
+          shouldUpload: true
+        })
+      );
+    }
  }
});
server.listen(3000, () => console.log("正在監(jiān)聽 3000 端口"));

暫停上傳

講完了生成 hash 和文件秒傳,回到斷點續(xù)傳

斷點續(xù)傳顧名思義即斷點 + 續(xù)傳,所以我們第一步先實現(xiàn)“斷點”,也就是暫停上傳

原理是使用 XMLHttpRequest 的 abort 方法,可以取消一個 xhr 請求的發(fā)送,為此我們需要將上傳每個切片的 xhr 對象保存起來,我們再改造一下 request 方法

   request({
      url,
      method = "post",
      data,
      headers = {},
      onProgress = e => e,
+     requestList
    }) {
      return new Promise(resolve => {
        const xhr = new XMLHttpRequest();
        xhr.upload.onprogress = onProgress;
        xhr.open(method, url);
        Object.keys(headers).forEach(key =>
          xhr.setRequestHeader(key, headers[key])
        );
        xhr.send(data);
        xhr.onload = e => {
+          // 將請求成功的 xhr 從列表中刪除
+          if (requestList) {
+            const xhrIndex = requestList.findIndex(item => item === xhr);
+            requestList.splice(xhrIndex, 1);
+          }
          resolve({
            data: e.target.response
          });
        };
+        // 暴露當前 xhr 給外部
+        requestList?.push(xhr);
      });
    },

這樣在上傳切片時傳入 requestList 數(shù)組作為參數(shù),request 方法就會將所有的 xhr 保存在數(shù)組中了

image

每當一個切片上傳成功時,將對應的 xhr 從 requestList 中刪除,所以 requestList 中只保存正在上傳切片的 xhr

之后新建一個暫停按鈕,當點擊按鈕時,調(diào)用保存在 requestList 中 xhr 的 abort 方法,即取消并清空所有正在上傳的切片

 handlePause() {
    this.requestList.forEach(xhr => xhr?.abort());
    this.requestList = [];
}

image

點擊暫停按鈕可以看到 xhr 都被取消了

image

恢復上傳

之前在介紹斷點續(xù)傳的時提到使用第二種服務端存儲的方式實現(xiàn)續(xù)傳

由于當文件切片上傳后,服務端會建立一個文件夾存儲所有上傳的切片,所以每次前端上傳前可以調(diào)用一個接口,服務端將已上傳的切片的切片名返回,前端再跳過這些已經(jīng)上傳切片,這樣就實現(xiàn)了“續(xù)傳”的效果

而這個接口可以和之前秒傳的驗證接口合并,前端每次上傳前發(fā)送一個驗證的請求,返回兩種結(jié)果

  • 服務端已存在該文件,不需要再次上傳
  • 服務端不存在該文件或者已上傳部分文件切片,通知前端進行上傳,并把已上傳的文件切片返回給前端

所以我們改造一下之前文件秒傳的服務端驗證接口

const extractExt = filename =>
  filename.slice(filename.lastIndexOf("."), filename.length); // 提取后綴名
const UPLOAD_DIR = path.resolve(__dirname, "..", "target"); // 大文件存儲目錄

const resolvePost = req =>
  new Promise(resolve => {
    let chunk = "";
    req.on("data", data => {
      chunk += data;
    });
    req.on("end", () => {
      resolve(JSON.parse(chunk));
    });
  });

+  // 返回已經(jīng)上傳切片名列表
+ const createUploadedList = async fileHash =>
+   fse.existsSync(`${UPLOAD_DIR}/${fileHash}`)
+    ? await fse.readdir(`${UPLOAD_DIR}/${fileHash}`)
+    : [];

server.on("request", async (req, res) => {
  if (req.url === "/verify") {
    const data = await resolvePost(req);
    const { fileHash, filename } = data;
    const ext = extractExt(filename);
    const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`;
    if (fse.existsSync(filePath)) {
      res.end(
        JSON.stringify({
          shouldUpload: false
        })
      );
    } else {
      res.end(
        JSON.stringify({
          shouldUpload: true,
+         uploadedList: await createUploadedList(fileHash)
        })
      );
    }
  }
});
server.listen(3000, () => console.log("正在監(jiān)聽 3000 端口"));

接著回到前端,前端有兩個地方需要調(diào)用驗證的接口

  • 點擊上傳時,檢查是否需要上傳和已上傳的切片
  • 點擊暫停后的恢復上傳,返回已上傳的切片

新增恢復按鈕并改造原來上傳切片的邏輯

<template>
  <div id="app">
      <input
        type="file"
        @change="handleFileChange"
      />
       <el-button @click="handleUpload">上傳</el-button>
       <el-button @click="handlePause" v-if="isPaused">暫停</el-button>
+      <el-button @click="handleResume" v-else>恢復</el-button>
      //...
    </div>
</template>

+   async handleResume() {
+      const { uploadedList } = await this.verifyUpload(
+        this.container.file.name,
+        this.container.hash
+      );
+      await this.uploadChunks(uploadedList);
    },
    async handleUpload() {
      if (!this.container.file) return;
      const fileChunkList = this.createFileChunk(this.container.file);
      this.container.hash = await this.calculateHash(fileChunkList);

+     const { shouldUpload, uploadedList } = await this.verifyUpload(
        this.container.file.name,
        this.container.hash
      );
      if (!shouldUpload) {
        this.$message.success("秒傳:上傳成功");
        return;
      }

      this.data = fileChunkList.map(({ file }, index) => ({
        fileHash: this.container.hash,
        index,
        hash: this.container.hash + "-" + index,
        chunk: file,
        percentage: 0
      }));

+      await this.uploadChunks(uploadedList);
    },
   // 上傳切片,同時過濾已上傳的切片
+   async uploadChunks(uploadedList = []) {
      const requestList = this.data
+        .filter(({ hash }) => !uploadedList.includes(hash))
        .map(({ chunk, hash, index }) => {
          const formData = new FormData();
          formData.append("chunk", chunk);
          formData.append("hash", hash);
          formData.append("filename", this.container.file.name);
          formData.append("fileHash", this.container.hash);
          return { formData, index };
        })
        .map(async ({ formData, index }) =>
          this.request({
            url: "http://localhost:3000",
            data: formData,
            onProgress: this.createProgressHandler(this.data[index]),
            requestList: this.requestList
          })
        );
      await Promise.all(requestList);
      // 之前上傳的切片數(shù)量 + 本次上傳的切片數(shù)量 = 所有切片數(shù)量時
      // 合并切片
+      if (uploadedList.length + requestList.length === this.data.length) {
         await this.mergeRequest();
+      }
    }

image

這里給原來上傳切片的函數(shù)新增 uploadedList 參數(shù),即上圖中服務端返回的切片名列表,通過 filter 過濾掉已上傳的切片,并且由于新增了已上傳的部分,所以之前合并接口的觸發(fā)條件做了一些改動

到這里斷點續(xù)傳的功能基本完成了

進度條改進

雖然實現(xiàn)了斷點續(xù)傳,但還需要修改一下進度條的顯示規(guī)則,否則在暫停上傳/接收到已上傳切片時的進度條會出現(xiàn)偏差

切片進度條

由于在點擊上傳/恢復上傳時,會調(diào)用驗證接口返回已上傳的切片,所以需要將已上傳切片的進度變成 100%

   async handleUpload() {
      if (!this.container.file) return;
      const fileChunkList = this.createFileChunk(this.container.file);
      this.container.hash = await this.calculateHash(fileChunkList);
      const { shouldUpload, uploadedList } = await this.verifyUpload(
        this.container.file.name,
        this.container.hash
      );
      if (!shouldUpload) {
        this.$message.success("秒傳:上傳成功");
        return;
      }
      this.data = fileChunkList.map(({ file }, index) => ({
        fileHash: this.container.hash,
        index,
        hash: this.container.hash + "-" + index,
        chunk: file,
+       percentage: uploadedList.includes(index) ? 100 : 0
      }));
      await this.uploadChunks(uploadedList);
    },

uploadedList 會返回已上傳的切片,在遍歷所有切片時判斷當前切片是否在已上傳列表里即可

文件進度條

之前說到文件進度條是一個計算屬性,根據(jù)所有切片的上傳進度計算而來,這就遇到了一個問題

image

點擊暫停會取消并清空切片的 xhr 請求,此時如果已經(jīng)上傳了一部分,就會發(fā)現(xiàn)文件進度條有倒退的現(xiàn)象

image

當點擊恢復時,由于重新創(chuàng)建了 xhr 導致切片進度清零,所以總進度條就會倒退

解決方案是創(chuàng)建一個“假”的進度條,這個假進度條基于文件進度條,但只會停止和增加,然后給用戶展示這個假的進度條

這里我們使用 Vue 的監(jiān)聽屬性

  data: () => ({
+    fakeUploadPercentage: 0
  }),
  computed: {
    uploadPercentage() {
      if (!this.container.file || !this.data.length) return 0;
      const loaded = this.data
        .map(item => item.size * item.percentage)
        .reduce((acc, cur) => acc + cur);
      return parseInt((loaded / this.container.file.size).toFixed(2));
    }
  },  
  watch: {
+    uploadPercentage(now) {
+      if (now > this.fakeUploadPercentage) {
+        this.fakeUploadPercentage = now;
+      }
    }
  },

當 uploadPercentage 即真的文件進度條增加時,fakeUploadPercentage 也增加,一旦文件進度條后退,假的進度條只需停止即可

至此一個大文件上傳 + 斷點續(xù)傳的解決方案就完成了

總結(jié)

大文件上傳

  • 前端上傳大文件時使用 Blob.prototype.slice 將文件切片,并發(fā)上傳多個切片,最后發(fā)送一個合并的請求通知服務端合并切片
  • 服務端接收切片并存儲,收到合并請求后使用 fs.appendFileSync 對多個切片進行合并
  • 原生 XMLHttpRequest 的 upload.onprogress 對切片上傳進度的監(jiān)聽
  • 使用 Vue 計算屬性根據(jù)每個切片的進度算出整個文件的上傳進度

斷點續(xù)傳

  • 使用 spart-md5 根據(jù)文件內(nèi)容算出文件 hash
  • 通過 hash 可以判斷服務端是否已經(jīng)上傳該文件,從而直接提示用戶上傳成功(秒傳)
  • 通過 XMLHttpRequest 的 abort 方法暫停切片的上傳
  • 上傳前服務端返回已經(jīng)上傳的切片名,前端跳過這些切片的上傳

源代碼
源代碼增加了一些按鈕的狀態(tài),交互更加友好

image

能看到這里說明大家小編的內(nèi)容還是挺感興趣的,那么點個關(guān)注再走吧。感謝大家的閱讀

作者:yeyan1996
鏈接:https://juejin.im/post/5dff8a26

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關(guān)閱讀更多精彩內(nèi)容

  • 從2015年爆發(fā)至今,外賣行業(yè)呈現(xiàn)一派蓬勃之勢,年交易額從1348億躍增至6000億元,用戶規(guī)模也從最初1.14億...
    311487fbc6e8閱讀 223評論 0 2
  • 一是懂得少 一是懂得淺 一是忘得快 一籌莫展
    一個不愛吃甜品的檸檬精閱讀 341評論 0 0
  • 原創(chuàng)2016-08-31血狼文字原作 文/血狼 配圖·源自網(wǎng)絡 我說過很多謊言,很多我都不記得了,但有一些我一直都...
    陳霓裳閱讀 248評論 0 24
  • 人生只需要兩次幸運就好,一是遇見你,二是走到底!有些愛情不是山盟海誓,也不是驚濤駭浪,更沒有刻骨銘心,只是充滿...
    妖媚兒閱讀 314評論 0 0
  • 讀書總是讀一半就看不下去了怎么辦呢? 之前《解憂雜貨鋪》剛開始暢銷的時候,我就買了一本想要好好的讀一...
    我是書小白呢閱讀 491評論 0 1

友情鏈接更多精彩內(nèi)容