本书系统深入地剖析了通义千问QwQ-32B开源大模型的技术原理与工程应用,聚焦于智能体强化学习下的模型架构创新与企业级项目交付实战。全书共十二章,内容涵盖模型底层结构优化、高效训练机制、MoE专家路由、注意力重构、推理部署加速、多模态能力集成、高效微调方法、上下文增强对话系统、响应可控机制等核心技术环节。后半部分以多智
本书系统阐述了视觉语言模型的理论体系与技术实践。全书共15章,分为三大部分:基础综述(第1章)、关键技术(第2~14章)与未来展望(第15章)。第一部分详解视觉语言模型的网络架构、预训练目标、评估方法及数据集体系,对比分析对抗训练、生成式预训练等范式,并建立性能评估基准。第二部分:第2章通过多个案例展示技术多样性;第3
《构建私有化大模型应用系统:部署、推理与知识库搭建》从基础理论到代码实现,系统阐述了构建私有化大语言模型(LLM)应用系统的完整流程,重点关注部署环境、模型推理、知识库搭建与应用集成等核心工程环节。《构建私有化大模型应用系统:部署、推理与知识库搭建》分为3部分,共10章。首先,深入讲解模型格式、推理引擎、多GPU部署与
本书旨在带领读者全面掌握将Llama应用于多模态智能体、编程助手及私有化部署等场景的相关知识。全书共分三篇,内容由浅到深、层层递进。基础篇(第1章~第3章)概览大模型技术,聚焦Transformer显卡开发环境与自然语言处理任务深入分析开源大模型的推理与训练。核心篇(第4章~第8章)探讨提示工程技术与应用,介绍如何基于
本书从原理的角度,系统地讲解序列监督学习、序列聚合、注意力机制、Transformer层以及三种类型的Transformer架构;从应用的角度,讲解并演示如何在自然语言处理、计算机视觉、信号处理、推荐系统、深度强化学习等领域使用Transformer架构完成文本分类、文本生成、机器翻译、语音识别、语音合成、图像分类、图
大语言模型(LargeLanguageModel,LLM)是人工智能领域研究和应用的前沿焦点,现已成为人工智能发展的新方向和新一代人工智能的基础设施。本书较系统地介绍了语言大模型的基本内容,主要包括发展语言大模型的三次热潮、深度学习基础、注意力机制、残差链接与逐层归一化、Transformer模型、预训练语言模型、LL
《掌握提问驱动AI:速通大模型提示工程》是一本全面探讨大语言模型和提示工程技术应用于不同领域的实践指南。本书系统介绍了提示工程的基础知识,并通过丰富的实例详细阐述了内容创作、播客制作、创意写作、文本分析、教育、法律、编程、聊天机器人等多个领域中的提示工程技巧。书中不仅深入讲解了如何设计和优化提示语以提升人工智能输出的质
本书主要内容包括:聊天机器人之殇;OWASP大语言模型应用十大安全风险;架构与信任边界;提示词注入;你的大语言模型是否知道得太多了等。
本书采用“项目+任务”的编写方式,全面介绍了从基础的键盘操作技巧到高级排版设计的相关内容。全书共9个项目,内容涵盖英文和符号输入、汉字录入基础、五笔字型输入法、文稿排版基础知识、日常公文排版、求职文档排版、销售文档排版、书稿文档排版及提高Word排版效率的方法。
“数据结构”是计算机类专业最重要的专业基础课之一,主要教授数据的有效组织方法以及解决实际问题的各种经典算法。而经典算法的威力,往往是在处理大规模数据量时才真正体现。只有让学生动手解决规模较大的问题,才能帮助学生建立感性认识,更好地理解数据结构和算法存在的意义。本书是计算机“101计划”核心课程实践教材,与主教材《数据结