如何利用AI的能力来强化搜索一直是业内的关注方向,大家都希望可以给用户带来更好的体验。
今天我们分享一个开源项目,它也同样受Perplexity启发,利用AI的能力来提升搜索体验,它就是:llm-answer-engine
llm-answer-engine 是一个开源的AI增强搜索引擎,它包含构建复杂答案引擎所需的代码和指令,该引擎利用Groq、Mistral AI 的 Mixtral、Langchain.JS、Brave Search、Serper API和OpenAI的功能。
该项目旨在根据用户查询高效地返回源、答案、图像、视频和后续问题,是对自然语言处理和搜索技术感兴趣的开发人员的理想起点。
项目使用的技术栈:
项目的作者在网上发布了很详细的项目介绍,里面详细的说明的项目的基本结构和实现的思路等,有条件的话,非常值得去看一下,这样还可以省下阅读代码的时间,效率更高。可以看下下图,里面就有了大致的一个思路和步骤,其实看起来不难,但是落地就不容易。
安装前准备:
1. 需要确保你的环境中已经安装好Nodejs和NPM2. 项目会使用到4种API key: OpenAI Groq Brave Search Serper 密钥的获取方式可以从对应的网站查看。
安装部署
接下来我们可以开始从源码安装,可以通过以下步骤:
#获取代码git clone <https://github.com/developersdigest/llm-answer-engine.git>#安装依赖npm install#配置env,在根目录下新建.env,添加提前准备好的API keyOPENAI_API_KEY=your_openai_api_keyGROQ_API_KEY=your_groq_api_keyBRAVE_SEARCH_API_KEY=your_brave_search_api_keySERPER_API=your_serper_api_key
安装完成后就可以起动服务了。
npm run dev
完成安装后我们可以体验 llm-answer-engine ,它总体上可以帮我们:
编辑配置
配置文件位于该app/config.tsx文件中。您可以修改以下值
- useOllamaInference: false,- useOllamaEmbeddings:假,- 推理模型:'mixtral-8x7b-32768',- inferenceAPIKey:process.env.GROQ_API_KEY,- embeddingsModel: 'text-embedding-3-small',- 文本块大小:800,- 文本块重叠:200,- numberOfSimilarity结果:2,- 扫描页数:10,- nonOllamaBaseURL: ' <https://api.groq.com/openai/v1>'- useFunctionCalling: true- useRateLimiting: false
llm-answer-engine 构建了一个比较完整的AI增强搜索,覆盖到了目前主流的技术实现,所以如果对这个方向有关注,那么可以参考和学习一下其内在的实现逻辑。从整体上也可以总结一下它具备的特点:
目前国内在这个方向上也有很多的企业在发力,比如Kimi和秘塔搜索等,所以了解现有的一些实现方式,思考如何进一步创新非常重要。