Tutorial de configuración de Discourse AI con la API de Silicon Flow, activa funciones de IA gratis

本文介绍如何启用和配置Discourse的AI搜索、AI翻译和AI相关话题功能,这些功能属于Discourse AI插件的一部分。本文基于官方教程和本站实践经验,实现中文站点的AI功能部署。

演示网站:https://bbs.eeclub.top/

这是我搭建的Discourse论坛,启用了Discourse AI插件,支持多语言功能。发布帖子后会自动通过AI翻译成多种语言,新用户发帖时会自动进行AI审核以减少垃圾内容。

我将在未来发布Discourse论坛搭建教程。

站长交流群:767557452


Preparativos previos

本文使用的AI接口来自硅基流动(SiliconFlow),通过我的邀请链接注册可获赠2000万Tokens(约14元)。

注册硅基流动账号后创建API密钥:在控制台左侧「API密钥」→「新建API密钥」→ 复制sk-xxxxxxxxxx。

记录这两个通用端点(后续需要使用):

  • LLM对话:https://api.siliconflow.cn/v1/chat/completions
  • Embedding:https://api.siliconflow.cn/v1/embeddings

硅基流动兼容OpenAI格式,可直接复用官方AI插件的OpenAI配置界面。


如需使用ChatGPT、Claude、Gemini、豆包、文心、360、Grok等更多模型,请访问DMXAPI平台。


Introducción al plugin Discourse AI

Discourse AI是一款专注于社区管理的AI助手,核心价值在于节省运营时间、保障社区安全有序,同时提升用户参与度和管理洞察力。

1. Moderación y gestión

  • Moderación automática: Detección precisa de contenido tóxico, marcado de publicaciones NSFW, filtro de spam con 99% de precisión, activación con un clic y ajustes personalizables.
  • Asistente AI personalizado: Soporte para prompts y parámetros personalizables, puede buscar en el foro, acceder a páginas web y documentos, brindando servicios a usuarios mediante chat/mensajería privada.
  • Herramientas útiles: Incluye corrección ortográfica, traducción y optimización de contenido, capaz de generar resúmenes, títulos y fechas inteligentes.

2. Compromiso y descubrimiento

  • Búsqueda semántica: Superando las limitaciones de palabras clave, coincidencia precisa de contenido contextual, mejora la eficiencia de búsqueda.
  • Recomendación de temas relacionados: Basado en análisis de similitud semántica profunda, muestra discusiones relacionadas al final de los temas para fomentar la interacción continua.
  • Resumen rápido: Condensa la información clave de conversaciones largas, ayudando a los usuarios a seguir rápidamente y reducir el desfase informativo.

3. Análisis e inteligencia

  • Monitoreo de sentimiento comunitario: Evalúa emociones y actitudes en las discusiones para capturar tendencias.
  • Informes automatizados: Genera reportes sobre actividad del foro, discusiones populares y comportamiento de usuarios para apoyar decisiones de gestión.
  • Monitoreo de uso de AI: Rastrea consumo de tokens y cantidad de solicitudes por modelos y funciones, proporcionando claridad sobre costos y uso.

4. Seguridad y flexibilidad de datos

  • Propiedad de datos: Los datos de AI y contenido comunitario se almacenan juntos, los usuarios poseen permanentemente sus datos.
  • Protección de privacidad: Utiliza modelos LLM de código abierto, no emplea datos de usuarios para entrenamiento, garantizando seguridad y control.
  • Soporte multi-proveedor: Seleccionable entre OpenAI, Anthropic, Microsoft Azure y más de 10 proveedores de servicios AI, adaptable a modelos personalizados.

Configuración del modelo LLM

\u003e ¿Qué es un modelo LLM?: LLM (Large Language Model, Modelo de Lenguaje Grande) es el “cerebro” detrás de las funciones de IA, encargado de comprender lenguaje natural y generar respuestas (como traducciones o resúmenes de búsqueda). SiliconFlow ofrece múltiples modelos LLM compatibles con la interfaz de OpenAI.

En el panel de administración de Discourse, primero debe activar el plugin Discourse AI para que aparezca la opción de configuración del modelo LLM.

Acceda a la página de configuración del plugin AI, haga clic en LLM, desplácese hasta Plantillas LLM no configuradas, y haga clic en Configuración bajo “Personalizado - Configuración manual”.

  • Proveedor: Seleccione OpenAI
  • URL del servicio que aloja el modelo: Ingrese el punto final LLM API https://api.siliconflow.cn/v1/chat/completions (si cambia la dirección API de SiliconFlow, obtenga la nueva desde su documentación para desarrolladores)
  • Clave API del servicio: Ingrese la clave API copiada anteriormente
  • Nombre del modelo: Establezca un nombre personalizado
  • ID del modelo: Seleccione un modelo desde el mercado de SiliconFlow y copie su ID (note que algunos modelos no son compatibles con el crédito de prueba gratuito). Yo seleccioné Pro/deepseek-ai/DeepSeek-V3.2-Exp

Seleccione OpenAiTokenizer para el Tokenizador en la mayoría de los casos. El Tamaño de contexto se indica en la página de descripción del modelo (por ejemplo, 160K para mi modelo, ingrese 160000). Haga clic en Enviar y luego en Ejecutar prueba para verificar la configuración.

Puede repetir estos pasos para agregar múltiples modelos o proveedores AI.

En la configuración de funciones puede asignar diferentes modelos a distintas funciones, permitiendo usar modelos gratuitos para tareas simples.


Configuración del modelo de incrustación (Embedding)

\u003e ¿Qué es un modelo de incrustación?: El modelo de incrustación convierte texto en “vectores semánticos” que las computadoras pueden entender, siendo fundamental para la búsqueda AI y recomendación de temas relacionados (por ejemplo, identificar que “配置邮件Discourse” y “如何设置Discourse邮件通知” tienen el mismo significado semántico).

Haga clic en IncrustacionesNueva incrustación

  • Proveedor: Seleccione OpenAI
  • URL del servicio de incrustación: Ingrese el punto final Embedding API https://api.siliconflow.cn/v1/embeddings (si cambia la dirección API de SiliconFlow, obtenga la nueva desde su documentación para desarrolladores)
  • Clave API del servicio de incrustación: Ingrese la clave API copiada anteriormente
  • Nombre del modelo: Establezca un nombre personalizado
  • Tokenizador: Seleccione BgeM3Tokenizer
  • ID del modelo: Ingrese BAAI/bge-m3 (modelo gratuito en SiliconFlow)
  • Función de distancia: Seleccione Producto interno negativo
  • Longitud de secuencia: Ingrese 8000

Haga clic en Guardar y luego en Ejecutar prueba para verificar la configuración.


Configuración de funciones AI

En la página de configuración del plugin AI, seleccione un modelo como modelo LLM predeterminado en la opción AI default LLM model.

Desplácese hasta AI helper enabled para activar el asistente AI. También puede configurar qué grupos de usuarios tienen permiso para usarlo. Este asistente ayuda en la edición de publicaciones con funciones como traducción, corrección, generación de tablas Markdown y títulos.

Desplácese hasta AI embeddings enabled para activar incrustaciones, y seleccione el modelo BAAI/bge-m3 en AI embeddings selected model.

Desplácese hasta AI summarization enabled para activar la función de resumen automático de temas (publicaciones).

No detallaré las configuraciones restantes, le invito a explorarlas por su cuenta.

También existe la función de traducción automática que convierte todo el contenido del foro al idioma preferido del usuario.


Lecturas recomendadas

Versión en inglés del artículo: https://blog.zeruns.top/archives/78.html