
【大公報訊】騰訊(00700)宣布,旗下騰訊雲大模型知識引擎成為業內首家接入MCP(Model Context Protocol,模型上下文協議)。用戶在搭建應用時,可以通過大模型知識引擎調用平台精選的MCP插件或插入自定義的MCP插件,大幅提升應用開發效率和功能豐富度。
騰訊雲智能區域解決方案總監王偉昨日在2025騰訊全球數字生態大會成都峰會上表示,騰訊雲大模型知識引擎已率先接入MCP,拓展人工智能(AI)應用邊界。目前知識引擎平台已經上線了多款MCP Server,包括騰訊雲EdgeOne Pages、騰訊位置服務等,涵蓋各類專業資訊獲取、網頁部署和預覽、網頁解析獲取等場景。除了精選MCP插件之外,用戶也可以按照MCP協議配置已經部署的MCP SSE服務,在應用中靈活調用。
簡單來說,用戶可以把不同的模型自行綜合來使用,MCP是專為大型語言模型(LLM)應用設計的開放協議,例如用戶可以在平台選用ChatGPT、DeepSeek等大型語言模型,配合其他自動化工具、數據分析模型等,根據自己的要求來共同使用。
增強個人化與跨平台使用
這些大型語言模型,雖然用戶也可以在其他平台使用,但在騰訊雲的平台上使用集成模型,最大的優勢就是可以利用騰訊的豐富數據資源和生態系統。這些數據可以幫助模型在特定場景下得到更好的優化及效果。簡而言之,在其他平台使用相同的模型,可能因為缺乏相應的數據支持和優化,導致性能和效果有所不同。因此,騰訊雲的集成不僅提供了模型本身,還可以利用其龐大的數據和技術支持,從而提升應用的整體效果。
業界認為,目前騰訊雲的大模型知識引擎在某種程度上已類似被譽為「AI模型超市」的Hugging Face,不過Hugging Face更專注於開源模型的共用和社區合作,正如DeepSeek最初也是在Hugging Face發布,而騰訊雲目前更側重於企業級解決方案和雲服務的整合。雖功能上有相似之處,但兩者的定位和使用場景有所不同。