AI
-
图像数据集自动标注指南
在这个激动人心的冒险中,我们将深入研究用于物体检测和图像分割的小型但强大的模型的世界。我们的目标是什么?利用大型模型的力量来创建高效、高质量的数据集,这些数据集可以训练更快、更小的模型,而不会影响性能。让我们开始吧! 本…
-
AI里的RAG到底是什么?
AI大模型如deepseek本地部署的成本相对较低,如果要训练,微调大模型,则需要非常多的显卡,与很多时间,那一般企业无法投入那么多钱去买显卡,怎么办? 通过RAG与本地部署来提升大模型的专业知识 RAG(Retriev…
-
大模型加AnythingLLM 实现的企业知识库是什么原理,和专业训练模型微调有什么区别?
将大模型与 AnythingLLM 等知识库工具结合使用,主要依赖检索增强生成(RAG) 和 提示工程,与专业训练(Fine-tuning)存在显著差异。以下是核心原理和对比: 一、知识库增强…
-
如何将deepseek1.5b 通过喂送资料变得 专业,聪明
要让DeepSeek 1.5B这类1.5B参数的中等规模模型通过资料训练变得更专业和聪明,需系统性融合领域知识强化、训练策略优化和工程调优。以下是完整技术方案: 一、知识注入策略(需3-5周) 1. 领域知识图谱构建 …
-
阿里通义千问登顶全球最强开源模型
国际权威大模型评测榜单LiveBench放榜,阿里巴巴最新开源的推理模型通义千问 QwQ-32B 冲入全球前五,超过 OpenAI-GPT-4.5 preview、Google-Gemini2.0、DeepSeek-R1…
-
能够微调的大模型有哪些
一、开源大模型(可直接微调) 这些模型提供完整的权重和代码,允许用户自行修改、微调和部署。 1. LLaMA 系列(Meta) 2. Falcon 系列(TII UAE) 3. BLOOM(BigScienc…
-
大型语言模型(LLM,Large Language Model)的核心原理
大型语言模型(LLM,Large Language Model)的核心原理基于深度学习和自然语言处理技术,尤其是 Transformer 架构和自监督学习。以下是其核心原理的分步解析: 1. 基础架构:Transfo…
-
18种RAG技术综合比较
我们将从一个简单的RAG方法开始,这是我们都知道的,然后测试更高级的技术,如CRAG、融合、HyDE等! 为了保持一切简单…… 我没有使用LangChain或FAISS 而是只使用基本库来代码所有技术,采用Jupyter…
-
Gemini 2.0 Flash原生图像生成
在去年12月,我们首次向可信测试人员推出了Gemini 2.0 Flash的原生图像输出功能。今天,我们将其开放给所有当前由Google AI Studio支持的地区进行开发者实验。你可以通过Google AI Stud…
-
deepseek大模型微调
一、DeepSeek 模型微调核心原理 DeepSeek 采用的 MoE(Mixture of Experts)架构 使其特别适合通过微调(Fine-tuning)实现领域适配。其微调特性包括: 二、…