[hidecontent type="logged" desc="隐藏内容:登录后可查看"]
您可以使用Google Colab 无需任何安装即可使用 fastai。事实上,本文档的每一页都可以作为交互式笔记本使用——点击任何页面顶部的“在 colab 中打开”即可打开它(请务必将 Colab 运行时更改为“GPU”以使其运行速度更快!)有关更多信息,请参阅有关 使用 Colab的 fast.ai 文档。
只要你运行的是 Linux 或 Windows(注意:不支持 Mac),你就可以使用 conda(强烈推荐)在你自己的机器上安装 fastai。对于 Windows,请参阅“在 Windows 上运行”以获得重要说明。
如果您使用的是 miniconda (推荐),则运行(请注意,如果您替换conda
为 mamba,安装过程将更快、更可靠):
conda install -c fastchan fastai
或者如果您使用的是 Anaconda,则运行:
conda install -c fastchan fastai anaconda
要使用 pip 安装,请使用:pip install fastai
如果使用 pip 安装,则应先按照 PyTorch安装说明安装 PyTorch 。
如果你打算自己开发fastai,或者想走在最前沿,你可以使用一个可编辑的安装(如果你这样做,你也应该使用一个可编辑的 fastcore安装来配合它。)首先安装PyTorch,然后:
git clone https://github.com/fastai/fastai
pip install -e "fastai[dev]"
开始使用 fastai(和深度学习)的最佳方式是阅读 本书,并完成免费课程。
要了解 fastai 的可能性,请查看快速入门,其中展示了如何使用大约 5 行代码来构建图像分类器、图像分割模型、文本情感模型、推荐系统和表格模型。对于每个应用程序,代码都大同小异。
通读教程,了解如何在您自己的数据集上训练您自己的模型。使用导航侧边栏浏览 fastai 文档。每个类、函数和方法都记录在此处。
要了解图书馆的设计和动机,请阅读同行评审的论文。
fastai 是一个深度学习库,它为从业者提供可以快速轻松地在标准深度学习领域提供最先进结果的高级组件,并为研究人员提供可以混合和匹配构建的低级组件新方法。它的目标是在不在易用性、灵活性或性能方面做出实质性妥协的情况下完成这两件事。这要归功于精心分层的架构,该架构以解耦抽象的形式表达了许多深度学习和数据处理技术的通用底层模式。利用底层 Python 语言的活力和 PyTorch 库的灵活性,可以简洁明了地表达这些抽象。法泰包括:
fastai 围绕两个主要设计目标进行组织:易于使用和快速高效,同时还具有深度可破解性和可配置性。它建立在提供可组合构建块的较低级别 API 的层次结构之上。这样,想要重写部分高级 API 或添加特定行为以满足他们需要的用户不必学习如何使用最低级别。
从普通的 PyTorch、Ignite 或任何其他基于 PyTorch 的库迁移非常容易,甚至可以将 fastai 与其他库结合使用。通常,您将能够使用所有现有的数据处理代码,但能够减少训练所需的代码量,并更轻松地利用现代最佳实践。以下是来自一些流行库的迁移指南,可帮助您顺利完成迁移:
安装时使用mamba
或在安装中conda
替换为,因为 Windows 当前不支持 fastchan。-c fastchan
-c pytorch -c nvidia -c fastai
由于 Jupyter 和 Windows 上的 python 多处理问题, num_workers
ofDataloader
自动重置为 0 以避免 Jupyter 挂起。这使得 Windows 上的 Jupyter 中的计算机视觉等任务比 Linux 慢很多倍。如果您从脚本中使用 fastai,则不存在此限制。
请参阅此示例 以充分利用 Windows 上的 fastai API。
要并行运行测试,请启动:
nbdev_test
要通过所有测试,您需要安装在 settings.ini 中作为 dev_requirements 的一部分指定的依赖项
pip install -e .[dev]
测试是使用 编写nbdev
的,例如,请参阅 的文档 test_eq
。
克隆此存储库后,确保已 nbdev_install_hooks
在终端中运行。这会安装 Jupyter 和 git 钩子以自动清理、信任和修复笔记本中的合并冲突。
在 repo 中进行更改后,您应该运行nbdev_prepare
并进行其他必要的更改以通过所有测试。
[/hidecontent]