ollama-deep-researcher——基于ollama的本地的网络研究助手
ollama-deep-researcher是一个基于ollama的本地网络研究助手,使用任何由ollama托管的LLM。它可以为用户提供一个Markdown总结,包含所有使用的来源。
1. 下载ollama
首先,需要从ollama拉取一个本地LLM。
2. 克隆代码库
然后,将代码库克隆到本地。
3. 启动助手与LangGraph服务器
最后,启动助手和LangGraph服务器。
4. 使用LangGraph Studio UI
当启动LangGraph服务器时,通过输出中的URL打开LangGraph Studio Web UI。在configuration标签中,选择网络搜索工具和本地LLM的名称。给助手一个研究主题,即可开始可视化研究过程。
上篇:
OpenAI Agents SDK:轻量级多智能体工作流框架
下篇:
GenBI AI Agent
相关主题
1 Suna - 通用 AI 智能体 2 FastAPI-MCP - 将FastAPI应用轻松转型为MCP服务器 3 public-apis - 可靠、高效的API资源 4 mcp.so - 最大的 MCP 服务器集合 5 AgenticSeek - 不联网也能写代码、搜文件 6 ollama-deep-researcher——基于ollama的本地的网络研究... 7 TTSFM:兼容 OpenAI TTS 的文本转语音 API 服务器 8 AIaW - 全功能、轻量级、可扩展的AI对话客户端 9 AI-Researcher:基于 LLM 代理的全自动科学研究平台 10 Local Deep Research - 本地深度 AI 研究助手 11 text-generation-inference - 推理任务 12 Sidekick - AI 研究助手:强大的智能研究工具
热门
焦点
视点
头条