人的一生应该是这样度过的:当他回首往事的时候,他不会因为虚度年华而悔恨,也不会因为碌碌无为而羞耻;这样,在临死的时候,他就能够说:“我的整个生命和全部精力,都已经献给世界上最壮丽的事业....."
CNDBA_2: 142216823(2k群)
CNDBA_3: 283816689(2k群)
CNDBA_4: 391125754
CNDBA_5: 104207940
CNDBA_6: 62697977
毕业以后一直从事数据库有关的工作,也一直在坚持技术分享,写了很多的博客,但博客有一定的局限性,所以这几年陆续出版了几本书,2019年和2020年写了2本Oracle 数据库有关的书籍,如下: 《Oracle 18c 必须掌握的新特性》 发售了 https://www.cndba.cn/dave/article/3453 《Oracle数据库问题解决方案和故障排除手册》终于发售了 https://www.cnd...
2021-08-10 10:58 8460 1
经过大半年的编写和校验《Oracle 18c 必须掌握的新特性》终于发售了。 本书重点讲解了Oracle 18c中重要的新特性。现在可以在 京东,天猫和当当网进行购买。 因为时间和个人对知识点的理解,在本书的撰写过程中难免出现一些错误,如果您发现这些问题。 也感谢您邮件给我:ahdba@qq.com. 当当购买网址:http://product.dangdang.com/27895222.html...
2019-07-02 10:54 15400 5
2020年3月18日更新: 《Oracle数据库问题解决方案和故障排除手册》出版社共印3次,以全部卖完,目前网上已经买不到全新版。 个人这边之前还收藏了十几本全新的,如果需要直接联系我。 QQ: 251097186 经过大半年的翻译和校验,《Oracle数据库问题解决方案和故障排除手册》终于发售了。 原书是由7位Oracle 专家撰写。 内容覆盖到Oracle 12cR1。 从...
2018-01-05 20:12 22270 4
出差归途火车上,有几个小时的时间,正好可以把Oracle 知识的学习框架梳理一下,这些都是Dave对Oracle的一些理解,共初学者参考。 本篇文章只介绍知识点,不涉及具体内容。 1 学习方法 很多初学者一直在门外徘徊的一个重要原因就是没有找到正确的学习方法,其实Oracle 需要系统的学习,这个过程可能需要2-3年。 最好的资料就是Oracle...
2016-11-09 18:50 14766 2
截至 2025 年 12 月,智谱AI(Zhipu AI)已系统性开源 GLM 系列多个大模型,覆盖基础语言、对话、多模态、超长上下文、轻量化、深度推理等方向。所有模型均采用 宽松开源协议(MIT 或 Apache 2.0),支持免费商用。 以下是对 GLM 所有已开源大模型的完整列举与结构化对比,便于开发者快速选型。 ✅ 一、GLM 开源大模型全列表(按发布时间倒序) ...
2025-12-30 15:00 173 0
大模型(Large Language Models, LLMs)可以从多个维度进行分类。以下是系统性的分类方式,涵盖训练目标、架构设计、应用场景、模态类型等主流视角: 一、按 训练目标与对齐程度 分类(最常见) 类型 说明 特点 典型代表 Base 模型(基础预训练模型) 仅在大规模无标注文本上通过自监督学习(如语言建模)训练得到 未经过指令微调或人类偏好对齐...
2025-12-29 14:14 133 0
截至 2025 年 12 月,“蚂蚁·安诊儿”(AntAngelMed) 是由中国 蚂蚁集团 联合 国家人工智能应用中试基地(医疗)·浙江 共同研发并开源的 超大规模医疗领域大模型。它不仅是技术突破的代表,更是中国在 医疗 AI 国产化、临床落地与开源生态建设 方面的重要里程碑。 一、基本信息概览 项目 内容 中文名 蚂蚁·安诊儿 英文名 AntAngelMed 发布时间 ...
2025-12-29 12:00 207 0
MaaS(Model as a Service,模型即服务)是人工智能时代的一种新型云计算服务模式,它将大模型(Large AI Models)作为一种可按需调用的基础设施服务提供给开发者、企业和机构,用户无需自建算力、训练模型或维护复杂系统,即可快速集成和使用先进的人工智能能力。 一、MaaS 的核心思想 “你不用拥有模型,只需使用模型。” 类比传统云计算: Ia...
2025-12-25 16:44 183 0
在大模型(Large Language Models, LLMs)部署与应用中,量化(Quantization)是一项核心优化技术,旨在降低模型的存储、内存和计算开销,同时尽可能保持模型性能(如生成质量、准确率)。以下是关于量化概念、常用格式及主流工具的系统性说明。 一、什么是量化?(Quantization) 核心思想: 将原本使用高精度浮点数(如 FP32/FP16)表示的模型...
2025-12-25 15:30 220 0
一、Manus 平台概述 📌 基本信息 发布方:中国创业公司 Monica(蝴蝶效应团队) 发布时间:2025 年 3 月 定位:全球首款通用 AI 智能体(General-purpose AI Agent) 核心理念:“知行合一” —— 不仅思考,更能执行 🔧 核心技术特点 多智能体架构(Multi-Agent):规划、执行、验证三大模块协同工作 端到端自主任务流:用户只需输入自然语...
2025-12-24 15:36 259 0
截至 2025 年 12 月,阿里巴巴通义千问(Qwen)团队已开源 Qwen3 系列共 12 款模型,涵盖 纯语言(Dense/MoE)、多模态、安全、语音、代码、检索 等多个方向。以下是完整汇总表格,并附各模型简要概述: ✅ Qwen3 全系列开源模型总览表 模型名称 类型 参数规模 主要能力 开源状态 适用场景 Qwen3-0.6B Dense LLM 0.6B 基础文本生成、对话 ✅ 开...
2025-12-22 12:50 676 0
✅ 一、前提条件 使用 Qwen3-32B 的开源版本 从 ModelScope 或 Hugging Face 下载模型。 推理框架支持 RoPE 扩展 推荐:vLLM ≥ 0.6.0、SGLang ≥ 0.4.0、llama.cpp(需编译支持 YaRN)。 GPU 显存充足 128K 上下文会显著增加 KV Cache 显存占用(INT4 量化下约需 25–35GB)。 ✅ 二、启用 128K 的核心方法:YaRN(Yet another RoPE extensioN...
2025-12-19 10:53 431 0
在大模型(Large Language Models, LLMs)的训练与推理过程中,数值精度格式(Numerical Precision Format)是影响性能、显存、速度和模型质量的核心因素之一。随着模型规模从数十亿到数千亿参数,高效利用硬件资源变得至关重要。 以下是目前在大模型领域最常见、最实用的数值精度格式详解,涵盖其原理、优缺点及典型应用场景。 📊 一、主流数...
2025-12-16 22:21 468 0
微调大语言模型(Large Language Model, LLM)是将通用大模型适配到特定任务或领域(如医疗、法律、客服)的关键技术。随着模型规模增大(7B → 70B+),全量微调(Full Fine-tuning)成本过高,因此涌现出多种高效微调(Parameter-Efficient Fine-Tuning, PEFT) 方法。 以下是截至 2025 年 主流的微调技术分类与详解: 🧩 一、全量微调(Ful...
2025-12-16 22:11 466 0
一、NVIDIA 的 CUDA 核心是什么? ✅ 定义 CUDA 核心(CUDA Core) 是 NVIDIA GPU 中的基础可编程计算单元,专为大规模并行浮点/整数运算设计。 每个 CUDA 核心可执行简单的算术逻辑操作(如加法、乘法)。 现代 NVIDIA GPU 包含数千至上万个 CUDA 核心(如 RTX 4090 有 16,384 个)。 它们被组织在 流式多处理器(SM, Streaming Multiprocessor...
2025-12-16 17:51 455 0
截至 2025 年 12 月,NVIDIA GeForce RTX 系列显卡已发展至 第五代(RTX 50 系列),涵盖从入门级到旗舰级的完整产品线。以下是 RTX 20 / 30 / 40 / 50 四大主流消费级系列 的完整型号列表及核心规格概要说明(基于官方与权威社区数据整理)。 📌 总览:RTX 各代发布时间与架构 系列 发布时间 GPU 架构 制程工艺 核心技术 RTX 20 系列 2018–2...
2025-12-16 17:23 1828 0
截至 2025 年 12 月,全球已发布 超过 300 个医学大模型(Medical Large Language Models, Med-LLMs),涵盖通用医疗问答、专科诊疗、多模态分析、药物研发等方向。以下按 开源状态 + 应用类型 分类,系统梳理 代表性医学大模型,并标注是否开源、开发者、特点及适用场景。 ✅ 一、完全开源的医学大模型(含权重 & 代码) 模型名称 开发单位 参...
2025-12-16 17:06 567 0
截至 2025 年 12 月,Radiology-SAM 和 MedSAM 都是基于 Meta 的 Segment Anything Model (SAM) 架构、专为医学影像分割任务优化的开源模型。尽管目标相似(实现通用医学图像分割),但二者在训练数据、设计目标、性能特点和适用场景上存在显著差异。 以下是两者的系统性对比: 📊 一、基本信息对比 项目 MedSAM Radiology-SAM 发布时间 2023 ...
2025-12-16 14:44 393 0
什么是推理引擎? 推理引擎(Inference Engine)是专门用于高效执行已训练好的 AI 模型(尤其是大语言模型、视觉模型等)的软件系统。它的核心任务不是训练模型,而是将模型“部署上线”,在实际应用中快速、稳定、低成本地完成预测(即“推理”)。 推理引擎的核心作用: 模型加载与解析:读取模型权重(如 PyTorch .bin、ONNX、TensorRT 等格...
2025-12-11 15:15 421 0
在 4 张 NVIDIA L20 显卡 的服务器上部署 Qwen3-32B 大模型 + emb/rerank/OCR 小模型,需从 硬件、操作系统、驱动、AI 软件栈、服务部署与算力分配 全链路规划。以下是面向生产环境的完整建议(截至 2025 年 12 月)。 一、服务器硬件建议 组件 推荐配置 说明 GPU 4 × NVIDIA L20(48GB GDDR6 ECC) 支持 FP8/INT8,适合推理;总显存 192GB CPU ...
2025-12-11 15:13 660 0