大家好,欢迎收看第六期机器学习周刊
本期介绍10个内容,涉及Python、机器学习、大模型等,目录如下:
1、哈佛大学机器学习课
首先强烈推荐一下质量上乘,完全免费的哈佛大学机器学习课程,
2024年度课程开始了,目前有两个时段可选
授课老师是哈佛大学生物统计学教授拉斐尔·伊里扎里,感兴趣可以去edX注册了
吴恩达和Langchain合作开发了JavaScript生成式AI短期课程:《使用LangChain.js构建LLM应用程序》
课程简介如下:
我对这门课非常感兴趣,但是deeplearning官网还没有字幕,学起来非常困难
已经有up搬运并配了机翻字幕,但是感觉很多地方翻译的不是很准确
所以我准备一边学习一边翻译并上传,但是这个字幕翻译工作还是蛮费功夫的,可能进度不会很快
官网:jan.ai/
Jan是ChatGPT的一个开源替代品,最近在GitHub上非常火爆。它能够在电脑上100%离线运行,支持NvidiaGPU&AppleM。
提供众多开源AI模型下载,每次对话选择一个模型后自动切换,很方便。
Jan能在任何硬件上运行,从个人电脑(Linux、Windows、MacOS)到多GPU集群,Jan支持通用架构:
有X友做了测试,支持中文,效果不错
最近ChatbotUI2.0发布了,这是一个面向所有人的开源AI聊天界面。
它不仅支持OpenAI、Claude的API,还支持Gemini、Mistral、PerplexityAPI、本地Ollama安装的模型。
目前Google的GeminiAPI是免费了,感兴趣可以申请后结合这个工具使用。
JinaAI绘制的这张高清PNG海报记录了文本嵌入自1950年至今的历史,展示过去74年的突破性演变。
网页中还提供了丰富的参考资料,每个技术里程碑都附带一个可供探索的资源列表。
LangChain是大模型世界最重要的工具之一,本周LangChain发布了0.1稳定版,完全向后兼容,同时提供Python和JavaScript,并在功能和文档方面都进行了改进。
可观察性:构建复杂的LLM应用程序很困难。为了最好地进行调试,需要知道所采取的确切步骤以及每个步骤的输入/输出。通过与LangSmith的紧密集成,LangChain拥有一流的可观察性
集成:近700个集成,无论你想使用什么技术堆栈,LangChain都支持
可组合性:使用LangChain表达式语言,可以轻松(且有趣!)创建任意链,为您带来数据编排框架的所有优势
流式传输:我们投入了大量资金来确保使用LangChain表达式语言创建的所有链以一流的方式支持流式传输-包括中间步骤的流式传输
输出解析:让LLM以某种格式返回信息是使其执行操作的关键。
检索:为RAG添加先进且可用于生产的方法,包括文本分割、检索和索引管道
工具使用+代理:代理集合(决定采取什么操作),工具集合,定义工具的简单方法
Google开发机器学习工具TeachableMachine,它允许用户快速、简单地创建自己的机器学习模型,而无需专业知识或编程技能。
你可以用它来教电脑识别图片、声音或人的动作。
使用这个工具的步骤很简单:
1、收集数据:你可以上传图片、录制声音或动作视频来作为训练数据。
2、训练模型:用这些数据来训练你的模型,然后测试它能否正确识别新的图片、声音或动作。
3、导出模型:完成训练后,你可以下载这个模型,或者上传到网上,用在其他项目中。
TeachableMachine提供了多种方式来创建机器学习模型,非常灵活和用户友好。
1、使用文件或实时捕捉示例:用户可以选择上传已有的图片、音频文件作为数据,也可以直接通过电脑的摄像头或麦克风实时录制视频、声音作为训练数据。
2、可以在本地完成训练:用户有选项不通过网络发送或处理数据。所有操作,包括数据的收集、模型的训练和应用,都可以在用户自己的电脑上完成,不需要将摄像头或麦克风收集的数据发送到互联网上。这对于隐私保护是非常重要的,特别是当处理敏感信息时。
3、TeachableMachine”生成的模型是真实的TensorFlow.js模型,可以在任何运行JavaScript的地方工作。此外,还可以将模型导出到不同的格式,以便在其他地方使用,如Coral、Arduino等。
9、Mixtral8x7B论文发布
本周另一个在X上刷屏的事件(前一个是LangChainv0.1.0的发布)是Mixtral8x7B论文发布。
Mixtral模型发布已经一个月了,Mixtral8x7B如此令人兴奋的原因在于它探索了一种新的架构范例,即“专家混合”方法,与大多数LLMs所遵循的方法形成鲜明对比。尽管这种方法并不新鲜,但尚未在LLM领域得到大规模证明。然而,Mixtral论文表明,Mixtral8x7B在各种基准测试中与更大的模型(例如Llama270B和GPT-3.5)相比具有良好的性能。
10、斯坦福大学开发出一个几乎不会产生幻觉的模型:WikiChat
大模型的通病是幻觉问题,也即一本正经地胡说八道。来自斯坦福的研究人员发布了WikiChat——被称为首个几乎不产生幻觉的聊天机器人!
模型在新的基准测试中获得了97.3%的事实准确性,而相比之下,GPT-4的得分仅为66.1%。
这个模型可以在线体验,不过遗憾的是它不支持中文,而且试用次数非常有限。
顺便说一句,斯坦福不但开源了模型,还开源了上面这个聊天应用ovalchat的代码: