詳解PHP如何讀取大文件

衡量成功

唯一能確認我們對代碼所做改進是否有效的方式是:衡量一個糟糕的情況,然後對比我們已經應用改進後的衡量情況。換言之,除非我們知道 “解決方案” 能幫我們到什麼程度 (如果有的話),否則我們並不知道它是否是一個解決方案。

我們可以關註兩個指標。首先是 CPU 使用率。我們要處理的過程運行得有多快或多慢?其次是內存使用率。腳本執行要占用多少內存?這些通常是成反比的 — 這意味著我們能夠以 CPU 使用率為代價減少內存的使用率,反之亦可。

在一個異步處理模型 (例如多進程或多線程 PHP 應用程序) 中,CPU 和內存使用率都是重要的考量。在傳統 PHP 架構中,任一達到服務器所限時這些通常都會成為一個麻煩。

測量 PHP 內部的 CPU 使用率是難以實現的。如果你確實關註這一塊,可用考慮在 Ubuntu 或 macOS 中使用類似於 top 的命令。對於 Windows,則可用考慮使用 Linux 子系統,這樣你就能夠在 Ubuntu 中使用 top 命令瞭。

在本教程中,我們將測量內存使用情況。我們將看一下 “傳統” 腳本會使用多少內存。我們也會實現一些優化策略並對它們進行度量。最後,我希望你能做一個合理的選擇。

以下是我們用於查看內存使用量的方法:

// formatBytes 方法取材於 php.net 文檔
memory_get_peak_usage();
function formatBytes($bytes, $precision = 2) {
    $units = array("b", "kb", "mb", "gb", "tb");
    $bytes = max($bytes, 0);
    $pow = floor(($bytes ? log($bytes) : 0) / log(1024));
    $pow = min($pow, count($units) - 1);
    $bytes /= (1 << (10 * $pow));
    return round($bytes, $precision) . " " . $units[$pow];
}

我們將在腳本的結尾處使用這些方法,以便於我們瞭解哪個腳本一次使用瞭最多的內存。

我們有什麼選擇?

我們有許多方法來有效地讀取文件。有以下兩種場景會使用到他們。我們可能希望同時讀取和處理所有數據,對處理後的數據進行輸出或者執行其他操作。 我們還可能希望對數據流進行轉換而不需要訪問到這些數據。

想象以下,對於第一種情況,如果我們希望讀取文件並且把每 10,000 行的數據交給單獨的隊列進行處理。我們則需要至少把 10,000 行的數據加載到內存中,然後把它們交給隊列管理器(無論使用哪種)。

對於第二種情況,假設我們想要壓縮一個 API 響應的內容,這個 API 響應特別大。雖然這裡我們不關心它的內容是什麼,但是我們需要確保它被以一種壓縮格式備份起來。

這兩種情況,我們都需要讀取大文件。不同的是,第一種情況我們需要知道數據是什麼,而第二種情況我們不關心數據是什麼。接下來,讓我們來深入討論一下這兩種做法.

逐行讀取文件

PHP 處理文件的函數很多,讓我們將其中一些函數結合起來實現一個簡單的文件閱讀器

// from memory.php
function formatBytes($bytes, $precision = 2) {
    $units = array("b", "kb", "mb", "gb", "tb");
    $bytes = max($bytes, 0);
    $pow = floor(($bytes ? log($bytes) : 0) / log(1024));
    $pow = min($pow, count($units) - 1);
    $bytes /= (1 << (10 * $pow));
    return round($bytes, $precision) . " " . $units[$pow];
}
print formatBytes(memory_get_peak_usage());
// from reading-files-line-by-line-1.php
function readTheFile($path) {
    $lines = [];
    $handle = fopen($path, "r");
    while(!feof($handle)) {
        $lines[] = trim(fgets($handle));
    }
    fclose($handle);
    return $lines;
}
readTheFile("shakespeare.txt");
require "memory.php";

我們正在閱讀一個包括莎士比亞全部著作的文本文件。該文件大小大約為 5.5 MB。內存使用峰值為 12.8 MB。現在,讓我們使用生成器來讀取每一行:

// from reading-files-line-by-line-2.php
function readTheFile($path) {
    $handle = fopen($path, "r");
    while(!feof($handle)) {
        yield trim(fgets($handle));
    }
    fclose($handle);
}
readTheFile("shakespeare.txt");
require "memory.php";

文件大小相同,但是內存使用峰值為 393 KB。這個數據意義大不大,因為我們需要加入對文件數據的處理。例如,當出現兩個空白行時,將文檔拆分為多個塊:

// from reading-files-line-by-line-3.php
$iterator = readTheFile("shakespeare.txt");
$buffer = "";
foreach ($iterator as $iteration) {
    preg_match("/\n{3}/", $buffer, $matches);
    if (count($matches)) {
        print ".";
        $buffer = "";
    } else {
        $buffer .= $iteration . PHP_EOL;
    }
}
require "memory.php";

有人猜測這次使用多少內存嗎?即使我們將文本文檔分為 126 個塊,我們仍然隻使用 459 KB 的內存。鑒於生成器的性質,我們將使用的最大內存是在迭代中需要存儲最大文本塊的內存。在這種情況下,最大的塊是 101985 個字符。

生成器還有其他用途,但顯然它可以很好的讀取大型文件。如果我們需要處理數據,生成器可能是最好的方法。

文件之間的管道

在不需要處理數據的情況下,我們可以將文件數據從一個文件傳遞到另一個文件。這通常稱為管道 (大概是因為除瞭兩端之外,我們看不到管道內的任何東西,當然,隻要它是不透明的)。我們可以通過流 (stream) 來實現,首先,我們編寫一個腳本實現一個文件到另一個文件的傳輸,以便我們可以測量內存使用情況:

// from piping-files-1.php
file_put_contents(
    "piping-files-1.txt", file_get_contents("shakespeare.txt")
);
require "memory.php";

結果並沒有讓人感到意外。該腳本比其復制的文本文件使用更多的內存來運行。這是因為腳本必須在內存中讀取整個文件直到將其寫入另外一個文件。對於小的文件而言,這種操作是 OK 的。但是將其用於大文件時,就不是那麼回事瞭。

讓我們嘗試從一個文件流式傳輸 (或管道傳輸) 到另一個文件:

// from piping-files-2.php
$handle1 = fopen("shakespeare.txt", "r");
$handle2 = fopen("piping-files-2.txt", "w");
stream_copy_to_stream($handle1, $handle2);
fclose($handle1);
fclose($handle2);
require "memory.php";

這段代碼有點奇怪。我們打開兩個文件的句柄,第一個處於讀取模式,第二個處於寫入模式。然後,我們從第一個復制到第二個。我們通過再次關閉兩個文件來完成。當你知道內存使用為 393 KB 時,可能會感到驚訝。這個數字看起來很熟悉,這不就是利用生成器保存逐行讀取內容時所使用的內存嗎。這是因為fgets的第二個參數定義瞭每行要讀取的字節數 (默認為-1或到達新行之前的長度)。stream_copy_to_stream 的第三個參數是相同的(默認值完全相同)。stream_copy_to_stream 一次從一個流讀取一行,並將其寫入另一流。由於我們不需要處理該值,因此它會跳過生成器產生值的部分

單單傳輸文字還不夠實用,所以考慮下其他例子。假設我們想從 CDN 輸出圖像,可以用以下代碼來描述

// from piping-files-3.php
file_put_contents(
    "piping-files-3.jpeg", file_get_contents(
        "https://github.com/assertchris/uploads/raw/master/rick.jpg"
    )
);
// ...or write this straight to stdout, if we don't need the memory info
require "memory.php";

想象一下應用程度執行到該步驟。這次我們不是要從本地文件系統中獲取圖像,而是從 CDN 獲取。我們用 file_get_contents 代替更優雅的處理方式 (例如 Guzzle),它們的實際效果是一樣的。

內存使用情況為 581KB,現在,我們如何嘗試進行流傳輸呢?

// from piping-files-4.php
$handle1 = fopen(
"https://github.com/assertchris/uploads/raw/master/rick.jpg", "r"
);
$handle2 = fopen(
"piping-files-4.jpeg", "w"
);
// ...or write this straight to stdout, if we don't need the memory info
stream_copy_to_stream($handle1, $handle2);
fclose($handle1);
fclose($handle2);
require "memory.php";

內存使用比剛才略少 (400 KB),但是結果是相同的。如果我們不需要內存信息,也可以打印至標準輸出。PHP 提供瞭一種簡單的方法來執行此操作:

$handle1 = fopen(
"https://github.com/assertchris/uploads/raw/master/rick.jpg", "r"
);
$handle2 = fopen(
"php://stdout", "w"
);
stream_copy_to_stream($handle1, $handle2);
fclose($handle1);
fclose($handle2);
// require "memory.php";

其他流

還存在一些流可以通過管道來讀寫。

  • php://stdin隻讀
  • php://stderr隻寫,與php://stdout相似
  • php://input隻讀,使我們可以訪問原始請求內容
  • php://output隻寫,可讓我們寫入輸出緩沖區
  • php://memory與php://temp(可讀寫) 是臨時存儲數據的地方。區別在於數據足夠大時php:/// temp就會將數據存儲在文件系統中,而php:/// memory將繼續存儲在內存中直到耗盡。

過濾器

我們可以對流使用另一個技巧,稱為過濾器。它介於兩者之間,對數據進行瞭適當的控制使其不暴露給外接。假設我們要壓縮shakespeare.txt文件。我們可以使用 Zip 擴展

// from filters-1.php
$zip = new ZipArchive();
$filename = "filters-1.zip";
$zip->open($filename, ZipArchive::CREATE);
$zip->addFromString("shakespeare.txt", file_get_contents("shakespeare.txt"));
$zip->close();
require "memory.php";

這段代碼雖然整潔,但是總共使用瞭大概 10.75 MB 的內存。我們可以使用過濾器來進行優化

// from filters-2.php
$handle1 = fopen(
"php://filter/zlib.deflate/resource=shakespeare.txt", "r"
);
$handle2 = fopen(
"filters-2.deflated", "w"
);
stream_copy_to_stream($handle1, $handle2);
fclose($handle1);
fclose($handle2);
require "memory.php";

在這裡,我們可以看到php:///filter/zlib.deflate過濾器,該過濾器讀取和壓縮資源的內容。然後我們可以將該壓縮數據通過管道傳輸到另一個文件中。這僅使用瞭 896KB 內存。

雖然格式不同,或者說使用 zip 壓縮文件有其他諸多好處。但是,你不得不考慮:如果選擇其他格式你可以節省 12 倍的內存,你會不會心動?

要對數據進行解壓,隻需要通過另外一個 zlib 過濾器:

// from filters-2.php
file_get_contents(
    "php://filter/zlib.inflate/resource=filters-2.deflated"
);

自定義流

fopen和file_get_contents具有它們自己的默認選項集,但是它們是完全可定制的。要定義它們,我們需要創建一個新的流上下文

// from creating-contexts-1.php
$data = join("&", [
    "twitter=assertchris",
]);
$headers = join("\r\n", [
    "Content-type: application/x-www-form-urlencoded",
    "Content-length: " . strlen($data),
]);
$options = [
    "http" => [
        "method" => "POST",
        "header"=> $headers,
        "content" => $data,
    ],
];
$context = stream_content_create($options);
$handle = fopen("https://example.com/register", "r", false, $context);
$response = stream_get_contents($handle);
fclose($handle);

本例中,我們嘗試發送一個 POST 請求給 API。API 端點是安全的,不過我們仍然使用瞭 http 上下文屬性(可用於 http 或者 https)。我們設置瞭一些頭部,並打開瞭 API 的文件句柄。我們可以將句柄以隻讀方式打開,上下文負責編寫。

創建自定義協議和過濾器

在總結之前,我們先談談創建自定義協議。

Protocol {
    public resource $context;
    public __construct ( void )
    public __destruct ( void )
    public bool dir_closedir ( void )
    public bool dir_opendir ( string $path , int $options )
    public string dir_readdir ( void )
    public bool dir_rewinddir ( void )
    public bool mkdir ( string $path , int $mode , int $options )
    public bool rename ( string $path_from , string $path_to )
    public bool rmdir ( string $path , int $options )
    public resource stream_cast ( int $cast_as )
    public void stream_close ( void )
    public bool stream_eof ( void )
    public bool stream_flush ( void )
    public bool stream_lock ( int $operation )
    public bool stream_metadata ( string $path , int $option , mixed $value )
    public bool stream_open ( string $path , string $mode , int $options ,
        string &$opened_path )
    public string stream_read ( int $count )
    public bool stream_seek ( int $offset , int $whence = SEEK_SET )
    public bool stream_set_option ( int $option , int $arg1 , int $arg2 )
    public array stream_stat ( void )
    public int stream_tell ( void )
    public bool stream_truncate ( int $new_size )
    public int stream_write ( string $data )
    public bool unlink ( string $path )
    public array url_stat ( string $path , int $flags )
}

我們並不打算實現其中一個,因為我認為它值得擁有自己的教程。有很多工作要做。但是一旦完成工作,我們就可以很容易地註冊流包裝器:

if (in_array("highlight-names", stream_get_wrappers())) {
    stream_wrapper_unregister("highlight-names");
}
stream_wrapper_register("highlight-names", "HighlightNamesProtocol");
$highlighted = file_get_contents("highlight-names://story.txt");

同樣,也可以創建自定義流過濾器。

Filter {
    public $filtername;
    public $params
    public int filter ( resource $in , resource $out , int &$consumed ,
        bool $closing )
    public void onClose ( void )
    public bool onCreate ( void )
}

可被輕松註冊

$handle = fopen("story.txt", "w+");
stream_filter_append($handle, "highlight-names", STREAM_FILTER_READ);

highlight-names 需要與新過濾器類的 filtername 屬性匹配。還可以在 php:///filter/highligh-names/resource=story.txt 字符串中使用自定義過濾器。定義過濾器比定義協議要容易得多。原因之一是協議需要處理目錄操作,而過濾器僅需要處理每個數據塊。

如果您願意,我強烈建議您嘗試創建自定義協議和過濾器。如果您可以將過濾器應用於 stream_copy_to_stream 操作,則即使處理令人討厭的大文件,您的應用程序也將幾乎不使用任何內存。想象一下編寫調整大小圖像過濾器或加密應用程序過濾器。

如果你願意,我強烈建議你嘗試創建自定義協議和過濾器。如果你可以將過濾器應用於 stream_copy_to_stream 操作,即使處理煩人的大文件,你的應用程序也幾乎不使用任何內存。想象下編寫 resize-image 過濾器和 encrypt-for-application 過濾器吧。

總結

雖然這不是我們經常遇到的問題,但是在處理大文件時的確很容易搞砸。在異步應用中,如果我們不註意內存的使用情況,很容易導致服務器的崩潰。

本教程希望能帶給你一些新的想法(或者更新你的對這方面的固有記憶),以便你能夠更多的考慮如何有效地讀取和寫入大文件。當我們開始熟悉和使用流和生成器並停止使用諸如 file_get_contents 這樣的函數時,這方面的錯誤將全部從應用程序中消失,這不失為一件好事。

以上就是詳解PHP如何讀取大文件的詳細內容,更多關於PHP如何讀取大文件的資料請關註WalkonNet其它相關文章!

推薦閱讀: