ollama-deep-researcher——基于ollama的本地的网络研究助手
ollama-deep-researcher是一个基于ollama的本地网络研究助手,使用任何由ollama托管的LLM。它可以为用户提供一个Markdown总结,包含所有使用的来源。
1. 下载ollama
首先,需要从ollama拉取一个本地LLM。
2. 克隆代码库
然后,将代码库克隆到本地。
3. 启动助手与LangGraph服务器
最后,启动助手和LangGraph服务器。
4. 使用LangGraph Studio UI
当启动LangGraph服务器时,通过输出中的URL打开LangGraph Studio Web UI。在configuration标签中,选择网络搜索工具和本地LLM的名称。给助手一个研究主题,即可开始可视化研究过程。
上篇:
OpenAI Agents SDK:轻量级多智能体工作流框架
下篇:
GenBI AI Agent
相关主题
1 ollama-deep-researcher——基于ollama的本地的网络研究... 2 TTSFM:兼容 OpenAI TTS 的文本转语音 API 服务器 3 AIaW - 全功能、轻量级、可扩展的AI对话客户端 4 AI-Researcher:基于 LLM 代理的全自动科学研究平台 5 Local Deep Research - 本地深度 AI 研究助手 6 text-generation-inference - 推理任务 7 Sidekick - AI 研究助手:强大的智能研究工具 8 Chipper - 开源智能知识检索和对话增强工具 9 Gemma3-OCR - 本地运行的计算机视觉应用 10 cognita - 低代码 RAG 框架 11 OpenManus 开源版 12 Second Me - AI 分身平台
热门
焦点
视点
头条