2024年学习人工智能的路线图
计算机视觉:2023年回顾和2024年趋势
探索人工智能驱动视觉的关键进展和未来方向
Devin AI,一位AI软件工程师,你的工作有危险吗?
数据可视化资源 :The TikZ and PGF Packages
https://tikz.dev/
数据可视化资源 :pygraphviz
https://pygraphviz.github.io/documentation/stable/auto_examples/index.html
数据可视化资源 :networkx
https://networkx.org/documentation/stable/auto_examples/index.html
数据可视化资源 :igraph
igraph
https://python.igraph.org/en/stable/tutorials/index.html
低代码平台2024
https://github.com/Budibase/budibase
Low code platform for building business apps and workflows in minutes. Supports PostgreSQL, MySQL, MSSQL, MongoDB, Rest API, Docker, K8s, and more 🚀
https://github.com/StackStorm/st2
- 阅读更多 关于 低代码平台2024
- 登录 发表评论
QLoRA——如何在单个GPU上微调LLM
Python示例代码介绍(ft.Mistral-7b)
本文是关于在实践中使用大型语言模型(LLM)的更大系列文章的一部分。在上一篇文章中,我们看到了如何使用OpenAI对LLM进行微调。然而,这种方法的主要限制是,OpenAI的模型隐藏在其API后面,这限制了我们可以使用它们构建什么以及如何构建。在这里,我将讨论一种使用开源模型和QLoRA来微调LLM的替代方法。
微调是指我们采用现有的模型,并根据特定的用例对其进行调整。这是最近人工智能创新爆发的关键部分,催生了ChatGPT等。
尽管微调是一个简单(强大)的想法,但将其应用于LLM并不总是那么简单。关键的挑战是LLM在计算上(非常)昂贵(即它们不能在典型的笔记本电脑上进行训练)。
例如,70B参数模型的标准微调需要超过1TB的内存[1]。就上下文而言,A100 GPU具有高达80GB的内存,所以你(最多)需要十几张这样的20000美元的卡!
虽然这可能会让你构建自定义人工智能的梦想破灭,但现在还不要放弃。开源社区一直在努力使使用这些模型的建筑更容易访问。从这些努力中产生的一种流行方法是QLoRA(量化低秩自适应),这是一种在不牺牲性能的情况下微调模型的有效方法。
【软件架构】最佳软件架构书籍终极榜单(2024)
在这篇文章中,我为您列出了2024年应该阅读的最佳软件架构书籍。
软件架构是软件产品成功开发的基础。
一个精心设计的软件架构可以对系统的质量产生很大的影响。它还可以帮助降低出错的风险,并使将来添加新特性和功能变得更容易。
在这篇博客文章中,我为您列出了2024年应该阅读的最佳软件架构书籍,以及2024年将出版哪些有趣的软件架构书籍。
当然,这些书中的大多数也是2023年最好的软件架构和设计书籍之一。
我希望这份软件架构师书籍清单能帮助你找到你需要学习更多关于软件架构的书籍,并成为一名更好的软件架构师。