7 minutos de lectura
Deja un comentario

Como tener tu propia Inteligencia Artificial en Moodle con Ollama

Foto del autor

En el pasado te mostré como integrar ChatGPT con Moodle. Pero como el mundo de las inteligencias artificiales avanza tan vertiginosamente, ahora es posible tener tu propia IA en tu hosting haciendo uso de Ollama, sin tener que depender de estos servicios de terceros.

Al igual que con ChatGPT, puedes generar texto y resúmenes directamente en Moodle, y lo mejor, sin compartir información con estas compañías.

Esto ahorra mucho dinero, al no tener que depender del cobro por cada pregunta generada a través de los tokens.

Sin más preámbulo, en este artículo te muestro como tener tu propia IA en Moodle con Ollama. Vamos a ello.

Importante

Es necesario Moodle 4.5 en adelante para poder tener tu IA con este tutorial. Usaré la versión 5.0 de Moodle para esta guía, por lo que es posible veas variaciones en la ubicación de los elementos si tienes la versión anterior.

Para utilizar modelos de IA propios en Moodle, es importante contar con un servidor relativamente potente, con al menos 8Gb de memoria Ram, aunque recomiendo 16Gb en adelante. También necesitarás: acceso al servidor como administrador a través de la línea de comandos.

A la fecha de creación de este post, los modelos de IA que puedes usar con Ollama no permiten la creación de imágenes.

Para esta guía, usaré como referencia un servidor con Linux.

Si no tienes tu Moodle en la versión 4.5 o superior, en Evirtualplus ofrecemos servicios de actualización, integración de inteligencias artificiales y montaje de servidores. No dudes en contactarnos.

¿Qué es Ollama?

Es un software, de código abierto, que permite ejecutar modelos de inteligencia artificial en tu hosting o tu propia computadora.

Una vez instalado en tu servidor puedes integrarlo en Moodle, y usarlos de manera gratuita 🤑. Por lo que el costo asociado, es el del servidor donde corre.

Con Ollama puedes gestionar y tener diferentes modelos de IA sin necesidades de servicios de terceros, como ChatGPT, Gemini, Grok.

Entre los modelos de IA con Ollama, tenemos, por ejemplo: Deepseek, Llama, Gemma, Mistral, etc.

Existen modelos especializados en determinadas áreas, como:

  • Codellama: para programación.
  • Mathstral: matemáticas
  • Orca2: razonamiento

Puedes ver los distintos modelos de IA con que cuenta Ollama, desde 👉 aquí.

Al instalar Ollama en tu propio servidor no compartes datos con terceros, lo que mejora enormemente la privacidad en tu Moodle, por consiguiente, la de tus usuarios.

Muchos de los modelos con que cuenta Ollama, son desarrollados por grandes compañías, o basados en sus modelos, como: Meta (llama), Google (gemma), Deepseek (deepseek-r1), Microsoft (phi), entre otros.

La mayor desventaja de usar Ollama, frente al uso de servicios de terceros, es que son modelos limitados a la versión que se usa y sin acceso a internet, por lo cual, sus respuestas están enmarcadas por la fecha en que fueron puestas a disposición del público. En pocas palabras: no tendrás respuestas actualizadas, y se limitarán al momento en que fueron creados.

También debes tener un servidor medianamente potente, lo que puede elevar mucho la factura en este rubro.

Instalando Ollama en Moodle

Accede a tu servidor en la línea de comandos. Cambia al usuario root con este comando:

su root

Para Ubuntu:

sudo su root

Si ya eres root, obvia el comando anterior.

Ejecuta ahora esto para instalar Ollama:

curl -fsSL https://ollama.com/install.sh | sh

La instalación tardara unos pocos minutos. Al finalizar verás nuevamente el promt de linux.

instalando ollama en linux

Para comprobar que está instalado Ollama, corre este comando:

curl http://localhost:11434

Debes ver este mensaje: Ollama is running

verificar que se ejecuta ollama en linux

Con esto, ya tenemos instalado y corriendo Ollama en nuestro servidor 😉.

Instalando el modelo de Inteligencia Artificial en Ollama

Como mencioné antes, Ollama tiene varios modelos de IA que podemos implementar en nuestro servidor.  Tienes la opción de elegir los que prefieras, aunque recomiendo limitar la selección a un máximo de tres para evitar sobrecargar el sistema

Para instalarlos, búscalo en la lista de modelos de IA por su nombre y ejecuta el siguiente comando en Linux, que tiene esta nomenclatura:

ollama pull nombre_del_modelo

Por ejemplo: si quieres instalar un modelo relativamente ligero para servidores con menos de 16gb de memoria Ram, recomiendo llama2, desarrollado por Meta (Facebook).

Para instalarlo usa este comando:

ollama pull llama2

Como verás, deberás usar ollama pull acompañado del nombre del modelo que aparece en la lista que te di en el vínculo anterior. La instalación durará pocos minutos, finaliza cuando veas nuevamente el promt de Linux.

Nota

Para ubicar el nombre del modelo: haz clic en el nombre del modelo que desees instalar; en la página que se abre, lo verás el campo ubicado en la parte inferior a la derecha.

ver nombre del modelo ollama

Otro modelo interesante es gemma2: ollama pull gemma2

Tiene hasta el famoso modelo de IA chino: deepseek. Aunque este no lo recomiendo, al ser muy pesado, solo la instalación ocupa más de 400Gb de disco 🥴.

Como última recomendación, tienes mistral. Instálalo usando el comando: ollama pull mistral

Con el comando: ollama list puedes ver los modelos de inteligencia artificial instalados.

listar modelos de ia en ollama

Si quieres eliminar un modelo de IA usa el comando:

ollama rm nombre_de_modelo

Por ejemplo, si quieres borrar llama2, seria: ollama rm llama2

Para finalizar la instalación, prueba la IA, para ver si funciona correctamente. Por ejemplo, para hacerlo con llama2, usa este comando:

ollama run llama2 "Resume en español en 100 palabras: ¿Qué es la inteligencia artificial?"

Deberías ver la respuesta a continuación. Por la pregunta entre las comillas.

¡Qué emocionante es tener nuestra propia IA 🤗!

Configurando la IA en Moodle

Accede a Moodle como administrador. En Administración del sitio, ve a: General > IA > Proveedores de IA

Haz clic al botón Crear instancia de nuevo proveedor.

crear proveedor de ia en moodle

Configura las opciones como se muestran a continuación:

  1. En la opción Elija plugin de proveedor de IA, selecciona Proveedor OpenAI API.
  2. Nombre de instancia: el nombre que quieras, por ejemplo, ollama2
  3. Clave de API de OpenAI: igual que antes, pondré ollama2
  4. No toques las demás opciones
  5. Haz clic a Crear instancia
creando instancia de proveedor de ia en moodle

Ahora haz clic al pasador en la columna Habilitado. Luego haz clic a Configuración.

habilitar proveedor de ai en moodle con ollama

Ahora verás en la parte de abajo, en Ajustes de acción, cuatro filas. Desmarca el pasador que pone Generar imagen. Recuerda que los modelos de Ollama no generan imágenes, por ahora al menos.

En la fila General texto, haz clic a Configuración.

configurando general texto con ai en moodle con ollama

Coloca esto:

  1. Modelo de IA: del menú descolgable, selecciona Personalizar
  2. Personalizar nombre del modelo: coloca el nombre del modelo que quieras que funcione en Moodle. El mismo que instalaste antes. Por ejemplo: llama2
  3. Endpoint de API: http://127.0.0.1:11434/v1/chat/completions
  4. Deja lo demás con esta

Haz clic al botón Guardar cambios.

configurando generar texto en moodle con ollama

Debes hacer el mismo procedimiento, con la misma información, en Resumir texto y Explicar texto.

Para finalizar esta parte de la configuración, debemos definir donde se mostrará y podremos llamar a la IA de Ollama en Moodle.

En administración del sitio, vamos a: General > IA > Disposiciones de IA

En las filas: Disposición de ayuda de curso y Disposición de editor de texto, haz clic al pasador de la columna Habilitado.

disposición de ia en moodle

Abriendo los puertos en Moodle para Ollama

Por motivos de seguridad, los puertos donde se conecta Moodle con Ollama, que es el 11434, están bloqueado. Es necesario abrirlos para que funcione la IA.

Dirígete en Administración del sitio a: General > Seguridad > Seguridad HTTP

En el campo: Lista de puertos cURL bloqueados, borra 127.0.0.0/8 y localhost.

puertos a desbloquear en moodle para ia de ollama

Debe quedar así:

ip de ollama desbloqueada

En el campo: Lista de puertos cURL autorizados, agrega el puerto 11434

agregar puerto de ollama

Con esto ya habremos terminado con la configuración de la IA de Ollama en Moodle 🤓.

Usando la inteligencia artificial en Moodle

Para usar la generación de texto en Moodle con tu IA, dirígete a cualquier curso y usa el editor de texto. Por ejemplo, creando o editando un recurso: Área de texto y medios.

Verás un nuevo botón en el editor, ubicado al lado de Grabar video.

ubicación de botón de ia en moodle

Al usarlos por primera vez, deberás aceptar las condiciones del servicio, con el botón Aceptar y continuar.

Si quieres general texto, coloca las instrucciones o prompts en el campo de la izquierda y haz clic a Generar texto. Dependiendo de la potencia de tu servidor, tardara más o menos tiempo.

texto generado por i en moodle con ollama

Si te satisface la respuesta, haz clic a Insertar; de lo contrario puedes intentarlo nuevamente, con el botón Regenerar.

Espero te haya gustado esta guía. No olvides dejar un comentario, son muy útiles para nuestro blog.

Califica este artículo

Puntuación promedio 0 / 5. Votos: 0

No hay votos hasta ahora. Sé el primero en calificar esta publicación.

Foto del autor
Fundador de VivaBlogger y cofundador de EVirtualplus. Soy un tecnomaniaco desde que estaba en pañales. Mi familia es el fundamento de mi vida. Sígueme en mis redes sociales.

También te puede interesar

Deja un comentario

El responsable de este sitio web es Marit Acuña. La finalidad de los datos es gestionar los comentarios en este blog. El destinatario (donde se almacenan los datos) es el hosting de este blog: Banahosting, ubicado en EEUU. La legitimidad es el consentimiento que otorgas en el formulario. Tienes derecho a acceder, rectificar, limitar y suprimir tus datos según la política de privacidad.