
一文看完大模型微调技术:微调背景、分类和微调全流程介绍
全网最全最完整的大模型微调系统性指导文章,包含微调背景、分类和微调全流程,内容涉及理论、技术原理、工具框架介绍,在微调过程中涉及数据准备、模型选择、环境准备、监控分析、超参数设置等等,充分结合各种场景,给于业务一定的判断和选择,是微调入门阅读的深度好文。

【推荐】Cursor网络搜索插件:基于MCP协议的搜索服务
一个基于MCP协议的搜索服务实现,提供网络搜索和本地搜索功能,Cursor和Claude Desktop能与之无缝集成,使你的Cursor可以实时获取符合你需求的内容!

一文看懂什么是MCP(大模型上下文)?用来干什么的?怎么用它?
本文介绍下MCP的基本概念、功能价值、工作原理、能做什么以及怎么开发使用,文章最后附带一些相关的学习资料站,基本上学习MCP看这一文就足够了。

人工智能(AI)编年史 ,持续更新中...
全网最全的人工智能(AI)编年史,记录从1943年开始,至今发生的人工智能重要里程碑事件,往后也会持续更新!
中国AI Agent行业研究报告(2025)
中国AI Agent行业研究报告(2025)解读(含报告下载),报告从全球认知、技术突破、商业实践、未来趋势四个维度展开,全面分析中国AI Agent行业的发展现状与前景。
一套提示词帮你实现小红书、公众号封面,附10套风格提示词!
一套提示词帮你实现小红书、公众号封面,附10套风格提示词,拿去直接可以用了,效果非常棒!!
大模型配置硬件参考自查表
大模型部署需要的硬件配置参考表,包含大模型推理与训练通用硬件选配表(英伟达系列、各种模型参数对照、微调和推理所需、典型场景配置方案)、.DeepSeek R1各模型硬件需求以及DeepSeek R1硬件选配的一些思路

手把手教你本地部署阿里QwQ-32B推理模型
本文是一篇详细的教程,旨在指导读者如何本地部署阿里 QwQ-32B 推理模型,帮助用户高效利用这一强大的语言模型进行开发和应用。文章分为三大部分:首先是通过 Ollama 部署模型,包括获取安装信息、本地部署、运行模型以及删除模型的步骤;接着介绍了使用 vllm 部署模型的方法,涵盖环境搭建、模型下载、Python 脚本测试以及创建兼容 OpenAI API 接口的服务器等内容;最后探讨了模型的使用方式,包括 Chatbox 配置和 API 调用示例。文章不仅提供了清晰的操作步骤和代码示例,还展示了模型在实际任务中的推理效果,适合希望在本地环境中高效利用 QwQ-32B 模型的开发者和研究人员阅读。

QwQ-32B:超越671B DeepSeek-R1的智能革命——更小、更快、更强
QwQ-32B是阿里巴巴最新发布的大模型,这款拥有320亿参数的语言模型通过强化学习(RL)技术实现了对数学推理、编程能力及通用问题解决能力的显著提升。在与DeepSeek-R1等顶尖模型的对比中,QwQ-32B不仅性能相当,而且资源消耗更低,成为追求高效能和环保AI解决方案的理想选择。本文深入剖析了QwQ-32B的特点、优势、部署方法及其应用场景,为开发者提供了一条通往未来人工智能的清晰路径。

Manus工作原理揭秘:解构下一代AI Agent的多智能体架构
Manus是一款基于多智能体架构的AI代理,能够自主规划和执行任务,具有任务理解、分解、执行计划制定、工具使用、记忆管理等功能。其核心模块包括规划模块、记忆模块和工具使用模块,通过多智能体协作完成复杂任务,具备自主规划能力、上下文理解、工具集成、安全隔离等特点,适用于旅行规划、金融分析、教育支持、商业决策、市场研究等场景,与传统AI助手相比有显著差异和优势。