• 码途未来(htmltoo.com)
    • 关于网站 最近24小时 最近一周内 最近30天内 版权声明 联系我们
    • 深度学习
    • 大语言模型
    • AI智能体
    • 云计算
    • 大数据
    • 维护工具
    • 企业应用
    • AI智能
    • 技术开发
    • 运营推广
    • 创业经验
    • 电商
    • Linux
    • 架构集群
    • 大数据
    • 人工智能
    • 程序文档
    • 开源软件
    • 经验笔记
    • 硬件网络
    • 领导管理
    • 运营推广
    • 团队人力
    • 财务会计
    • 创业商业
    • 盈利模式
    • 心理学
    • 电商学堂
  • 专业常识
    • 项目规划
    • 项目管理
    • 公务员
    • 心理学
    • 科学英政
  • 生活工作
    • 生活
    • 工作
    • 有用
    • 阅读
  • 智慧幽默
    • 人生智慧
    • 成功励志
    • 情感恋爱
    • 搞笑爆笑
  • 导航
    • 推荐阅读 热门排行 有图阅读 热门图文 博客头条 今日视点 焦点资讯 AI软件头条

    • 手机版 电子周刊 单页导航 字母标签
  • 免费注册
  • 直接登录
导航
推荐阅读 热门排行 有图阅读 热门图文 博客头条 今日视点 焦点资讯 AI软件头条
AI软件
深度学习 大语言模型 AI智能体 云计算 大数据 维护工具 企业应用
搜索
会员中心
免费注册
直接登录
关于我们
关于网站 最近24小时 最近一周内 最近30天内 版权声明 联系我们
  • 首页
  • 搜索: 大语言
    大语言
    时间排序 点击排序 评论排序 评分排序 支持量排序
    • AI Agent?Google 出品的 智能体
      想自己动手打造一个聪明到飞起的 AI Agent?Google 出品的 ADK 了解一下!ADK 是什么?适合谁?你是否也在想:“我能不能亲手定制一个像 ChatGPT 那样的智能 Agent,还能接工具、能部署、能调试?”答案是:当然可以!ADK(Agent Development Kit)是 Google 出品的开源 Python 工具包,专为开发者打造,支持用代码构建、评估和部署高阶 AI / 2025-04-10 20:38:51 / 查看 562 次
      TAG: 代码 平台 大模型 大语言 人工智能 0 评论 发表评论
    • ZO2:低显存环境下的 175B LLM 全参数微调解决方案
      ZO2:低显存环境下的 175B LLM 全参数微调解决方案📌 工具简介ZO2 (Zeroth-Order Offloading) 是一种创新的 零阶优化(ZO)+ 离载(Offloading) 技术框架,使大规模语言模型(LLM) 的 全参数微调(Full Fine-Tuning) 在低显存环境下成为可能。例如,它可以在仅 18GB 显存的 GPU 上微调 OPT-175B,极大降低硬件门槛。✨ / 2025-03-26 02:30:08 / 查看 206 次
      TAG: 微调 方案 大语言 大模型 资源 0 评论 发表评论
    • AIaW - 全功能、轻量级、可扩展的AI对话客户端
      AI as Workspace(AIaW) 是一款面向开发者、创作者及普通用户的 全功能、轻量级、可扩展的AI对话客户端,项目基于 TypeScript 和 Vue 框架构建,以 “本地优先+实时云同步” 为核心设计理念,支持跨平台运行(Web、桌面端、移动端),并整合了 OpenAI、Anthropic、Google 等主流 AI 服务商的模型,同时内置丰富的插件系统与助手市场,目标是为用户打造 / 2025-03-26 02:09:17 / 查看 551 次
      TAG: 框架 模型 大语言 大模型 助手 0 评论 发表评论
    • Mastra : 专为 TS 开发者设计的 AI 应用开发框架
      Mastra : 专为 TS 开发者设计的 AI 应用开发框架技术亮点现代技术栈:基于 Next.js/Vercel 生态,天然适配前后端一体化开发生产就绪:工作流支持持久化状态,适合需要中断/恢复的长任务模块化设计:可单独使用 RAG 或 Agents,也能组合成复杂系统透明可观测:每个 AI 决策步骤都可追溯,符合企业合规需求适用场景· 快速搭建智能客服、文档助手等 AI 应用· 现有系统添加 / 2025-03-26 02:00:15 / 查看 448 次
      TAG: 开发 框架 设计 大语言 大模型 0 评论 发表评论
    • GraphRAG:基于图像检索增强生成开源到爆火,解锁新RAG技术
      什么是GraphRAG?GraphRAG是一种基于图的知识检索增强技术,它结合了知识图谱的广泛知识表示能力和大语言模型(LLM)的生成能力。与传统的RAG方法相比,GraphRAG通过构建知识图谱和社区层次结构,显著提升了复杂信息处理的能力。具体来说,GraphRAG的工作流程包括以下几个步骤:从原始文本中提取知识图谱:使用自然语言处理技术从非结构化文本中提取实体和关系。构建社区层次结构:利用图统 / 2025-03-26 01:50:12 / 查看 123 次
      TAG: RAG 知识库 大模型 大语言 人工智能 0 评论 发表评论
    • ​AI-Researcher:基于 LLM 代理的全自动科学研究平台
      AI-Researcher:基于 LLM 代理的全自动科学研究平台AI-Researcher 是一个 开源替代 Google AI Co-Scientist 的 全自动科学发现 平台,利用 大语言模型 (LLM) 代理 实现 端到端的研究自动化,重塑传统科研范式,加速科学创新。✨ 主要特性🎯 全自动科研流程:从概念构思到论文撰写,全流程自动化。🔄 智能研究编排:自动协调研究步骤,确保高效执行。🧠 / 2025-03-26 01:47:39 / 查看 302 次
      TAG: 科学 研究 创新 自动化 大语言 智能化 0 评论 发表评论
    • Local Deep Research - 本地深度 AI 研究助手
      Local Deep Research:本地深度 AI 研究助手Local Deep Research 是一款强大的 AI 驱动研究助手,能够执行深度、迭代式分析,结合 多个 LLM(大语言模型)与网络搜索,提供全面的研究支持。用户可选择 本地运行 以确保隐私,或使用 云端 LLM 以获得更强的计算能力。✨ 核心功能🔍 高级研究能力 • 自动化深度研究,智能生成后续问题,挖掘更完整的信息。 • 引 / 2025-03-26 01:46:20 / 查看 698 次
      TAG: 研究 助手 大语言 Ollama 模型 0 评论 发表评论
    • DistillFlow
      DistillFlow:简化和扩展大语言模型蒸馏的开源工具包DistillFlow 是一个开源工具包,旨在简化和扩展将大型语言模型(LLMs)蒸馏成更小、更高效模型的过程。它提供了一个灵活的管道,支持多GPU的蒸馏、微调和实验,具备动态资源分配的能力,并且能够轻松集成自定义技术。什么是蒸馏?蒸馏是将大规模机器学习模型的知识迁移到小型模型的过程。在这个过程中,大型模型被称为“教师模型”,而小型模型则 / 2025-03-26 00:52:27 / 查看 190 次
      TAG: 大语言 模型 知识 数据 微调 0 评论 发表评论
    • WebWalker - 专注于模拟人类的网络浏览和搜索行为
      在AI领域,大型语言模型(LLM)已经展现出了强大的语言理解和生成能力,但其知识通常是固定的,无法实时更新。尽管检索增强生成(RAG)技术能帮助模型获取最新信息,但传统搜索引擎的横向搜索方式限制了对信息的深度挖掘。为了解决这一问题,阿里和东南大学共同研发了WebWalker,一个多智能体框架,专注于模拟人类的网络浏览和搜索行为,让LLM能够自动点击链接、阅读网页、理解信息,最终给出更精准、更深层次 / 2025-03-25 22:28:34 / 查看 1 次
      TAG: RAG 检索增强 大语言 大模型 智能体 0 评论 发表评论
    • chitu - 大语言模型推理框架
      - https://github.com/thu-pacman/chitugit clone --recursive https://github.com/thu-pacman/chitu && cd chitupip install -r requirements-build.txtpip install -U torchTORCH_CUDA_ARCH_LIST=8.6 CHITU_SETUP_ / 2025-03-21 19:34:32 / 查看 1 次
      TAG: 大模型 推理 框架 人工智能 性能 0 评论 发表评论
      • 1
      • «
      • 1
      • 2
      • »
      • last
    • 支付宝 ,打赏哦
    • 微信 ,打赏哦

    扫码支持

    扫码支持

    知识的整理归类,离不开每一个热心网友的辛勤努力与默默付出!
    打赏,不在于金钱的多与少,而在于,您那份对Ta付出的肯定与认可!

13850000249 闽ICP备2020019667号-1 闽公网安备35020502000906号