c - 编写程序以处理导致 Linux 上丢失写入的 I/O 错误

TL;DR:如果 Linux 内核丢失了缓冲的 I/O 写入,应用程序有什么方法可以发现吗?

我知道您必须对文件(及其父目录)进行 fsync() 以确保持久性。问题是如果内核由于 I/O 错误而丢失了等待写入的脏缓冲区,应用程序如何检测到这一点并恢复或中止?

想想数据库应用程序等,其中写入顺序和写入持久性至关重要。

丢失的写入?怎么样?

Linux内核的 block 层在某些情况下会丢失缓冲的已经被write()pwrite()成功提交的I/O请求code> 等,错误如下:

Buffer I/O error on device dm-0, logical block 12345
lost page write due to I/O error on dm-0

(参见 end_buffer_write_sync(...) and end_buffer_async_write(...) in fs/buffer.c)。

On newer kernels the error will instead contain "lost async page write" ,比如:

Buffer I/O error on dev dm-0, logical block 12345, lost async page write

由于应用程序的 write() 已经返回且没有错误,似乎没有办法将错误报告回应用程序。

检测到它们?

我对内核源代码不太熟悉,但我认为它将 AS_EIO 设置在缓冲区上,如果它正在执行异步则无法被写出写:

    set_bit(AS_EIO, &page->mapping->flags);
    set_buffer_write_io_error(bh);
    clear_buffer_uptodate(bh);
    SetPageError(page);

但我不清楚应用程序是否或如何在稍后 fsync()s 文件以确认它在磁盘上时发现它。

看起来像 wait_on_page_writeback_range(...) in mm/filemap.c可能来自 do_sync_mapping_range(...) in fs/sync.csys_sync_file_range(...) 轮流调用.如果无法写入一个或多个缓冲区,则返回 -EIO

如果,正如我所猜测的那样,这会传播到 fsync() 的结果,那么如果应用程序在从 fsync( ) 并且知道重新启动时如何重新工作,这应该是足够的保障吗?

应用程序可能无法知道文件中的哪些字节偏移对应于丢失的页面,因此如果它知道如何重写它们,但如果应用程序重复所有待处理的工作,因为文件的最后一个成功的 fsync(),并重写与文件丢失写入相对应的任何脏内核缓冲区,这应该清除丢失页面上的任何 I/O 错误标志并允许下一个 fsync() 来完成 - 对吧?

还有其他无害的情况,fsync() 可能会返回 -EIO,在这种情况下,救助和重做工作会过于激烈?

为什么?

当然这样的错误不应该发生。在这种情况下,错误是由 dm-multipath 驱动程序的默认值与 SAN 用来报告分配精简配置存储失败的检测代码之间的不幸交互引起的。但这并不是它们可能发生的唯一情况——我还看到了来自精简配置 LVM 的报告,例如 libvirt、Docker 等使用的。像数据库这样的关键应用程序应该尝试处理此类错误,而不是一味地装作万事大吉。

如果内核认为在不因内核 panic 而死的情况下丢失写入是可以的,则应用程序必须找到应对方法。

实际影响是,我发现了一个案例,即 SAN 的多路径问题导致写入丢失,导致数据库损坏,因为 DBMS 不知道其写入已失败。不好玩。

最佳答案

fsync() 如果内核丢失写入,则返回 -EIO

(注意:早期部分引用了旧内核;下面更新以反射(reflect)现代内核)

看起来像 async buffer write-out in end_buffer_async_write(...) failures set an -EIO flag on the failed dirty buffer page for the file :

set_bit(AS_EIO, &page->mapping->flags);
set_buffer_write_io_error(bh);
clear_buffer_uptodate(bh);
SetPageError(page);

然后由 wait_on_page_writeback_range(...) 检测到,由 do_sync_mapping_range(...) 调用,由 sys_sync_file_range(...)sys_sync_file_range2(...) 调用以实现 C 库调用 fsync()

但只有一次!

This comment on sys_sync_file_range

168  * SYNC_FILE_RANGE_WAIT_BEFORE and SYNC_FILE_RANGE_WAIT_AFTER will detect any
169  * I/O errors or ENOSPC conditions and will return those to the caller, after
170  * clearing the EIO and ENOSPC flags in the address_space.

建议当 fsync() 返回 -EIO 或(手册页中未记录)-ENOSPC 时,它会清除错误状态,因此即使页面从未被写入,后续 fsync() 也会报告成功。

果然wait_on_page_writeback_range(...) clears the error bits when it tests them :

301         /* Check for outstanding write errors */
302         if (test_and_clear_bit(AS_ENOSPC, &mapping->flags))
303                 ret = -ENOSPC;
304         if (test_and_clear_bit(AS_EIO, &mapping->flags))
305                 ret = -EIO;

所以如果应用程序期望它可以重试 fsync() 直到它成功并相信数据在磁盘上,那就大错特错了。

我很确定这是我在 DBMS 中发现的数据损坏的根源。它重试 fsync() 并认为成功后一切都会好起来的。

允许这样做吗?

POSIX/SuS docs on fsync()无论哪种方式都不要真正指定:

If the fsync() function fails, outstanding I/O operations are not guaranteed to have been completed.

Linux's man-page for fsync()只是没有说明失败时会发生什么。

所以看来 fsync() 错误的意思是“我不知道你写的东西发生了什么,可能有效与否,最好再试一次确定”。

较新的内核

4.9 end_buffer_async_write在页面上设置 -EIO,只是通过 mapping_set_error

    buffer_io_error(bh, ", lost async page write");
    mapping_set_error(page->mapping, -EIO);
    set_buffer_write_io_error(bh);
    clear_buffer_uptodate(bh);
    SetPageError(page);

在同步方面,我认为它是相似的,尽管结构现在非常复杂。 mm/filemap.c 中的 filemap_check_errors 现在可以:

    if (test_bit(AS_EIO, &mapping->flags) &&
        test_and_clear_bit(AS_EIO, &mapping->flags))
            ret = -EIO;

效果差不多。错误检查似乎都经过filemap_check_errors进行测试和清除:

    if (test_bit(AS_EIO, &mapping->flags) &&
        test_and_clear_bit(AS_EIO, &mapping->flags))
            ret = -EIO;
    return ret;

我在笔记本电脑上使用 btrfs,但是当我创建 ext4 环回以在 /mnt/tmp 上进行测试并设置对其进行性能探测:

sudo dd if=/dev/zero of=/tmp/ext bs=1M count=100
sudo mke2fs -j -T ext4 /tmp/ext
sudo mount -o loop /tmp/ext /mnt/tmp

sudo perf probe filemap_check_errors

sudo perf record -g -e probe:end_buffer_async_write -e probe:filemap_check_errors dd if=/dev/zero of=/mnt/tmp/test bs=4k count=1 conv=fsync

我在 perf report -T 中找到以下调用堆栈:

        ---__GI___libc_fsync
           entry_SYSCALL_64_fastpath
           sys_fsync
           do_fsync
           vfs_fsync_range
           ext4_sync_file
           filemap_write_and_wait_range
           filemap_check_errors

通读表明,是的,现代内核的行为相同。

这似乎意味着如果 fsync()(或者可能是 write()close())返回 -EIO ,文件在你上次成功 fsync()d 或 close()d 和最近一次 write( )十个状态。

测试

I've implemented a test case to demonstrate this behaviour .

意义

DBMS 可以通过进入崩溃恢复来解决这个问题。一个普通的用户应用程序到底应该如何处理这个问题? fsync() 手册页没有警告它意味着“fsync-if-you-feel-like-it”,我预计很多应用程序无法处理这种行为很好。

错误报告

  • https://bugzilla.kernel.org/show_bug.cgi?id=194755
  • https://bugzilla.kernel.org/show_bug.cgi?id=194757

进一步阅读

lwn.net touched on this in the article "Improved block-layer error handling" .

postgresql.org mailing list thread .

https://stackoverflow.com/questions/42434872/

相关文章:

linux - 当程序具有命令行参数时,如何使用 GDB 分析程序的核心转储文件?

linux - 如何检测网线/连接器的物理连接状态?

linux - 您可以将 Amazon EBS 附加到多个实例吗?

python - 如何检查有效的电子邮件地址?

python - 更改 pandas DataFrame 中的特定列名

python - Python SciPy 需要 BLAS 吗?

linux - 从文件列表中获取输入的 Tar 归档

python - 在 scikit-learn 中将分类器保存到磁盘

python - Django CSRF 检查因 Ajax POST 请求而失败

django - 在 Django 中处理一页上的多个表单的正确方法