Introducción a la Investigación con Inteligencia Artificial Local
He recurrido a la inteligencia artificial instalada localmente para la investigación porque no quiero que terceros utilicen mi información para crear un perfil o entrenar sus modelos de lenguaje locales (LLM). Mi elección de inteligencia artificial local es Ollama, que es de código abierto. Recientemente escribí un artículo sobre cómo hacer que el uso de este modelo de lenguaje local sea más fácil con la ayuda de una extensión de navegador, que uso en Linux. Sin embargo, en MacOS, recurro a una aplicación fácil de usar y gratuita llamada Msty.
Características de Msty
Msty permite utilizar modelos de inteligencia artificial instalados localmente y en línea. Sin embargo, por defecto, utilizo la opción instalada localmente. A diferencia de otras opciones para Ollama, no hay contenedor que desplegar, no hay terminal que usar y no es necesario abrir otra pestaña del navegador. Msty cuenta con características como:
– Chats divididos (para ejecutar más de una consulta al mismo tiempo)
– Regenerar respuesta del modelo
– Clonar chats
– Agregar varios modelos
– Llamada de datos en tiempo real (que solo funciona con ciertos modelos)
– Crear Pilas de Conocimiento (donde se pueden agregar archivos, carpetas, bóvedas de Obsidian, notas y más para entrenar el modelo local)
– Biblioteca de instrucciones
– Y más
Instalación de Msty
Para instalar Msty, necesitarás:
– Un dispositivo MacOS
– Ollama instalado y en ejecución
Si no has instalado Ollama, hazlo primero. También necesitarás descargar uno de los modelos locales.
Uso de Msty
- Abrir Msty: Abre Launchpad y localiza el lanzador de Msty. Haz clic en el lanzador para abrir la aplicación.
- Conectar el modelo de Ollama local: Cuando ejecutes Msty por primera vez, haz clic en Configurar Inteligencia Artificial Local y descargará los componentes necesarios. Una vez que se complete la descarga, se encargará de la configuración y descargará un modelo local diferente a Ollama. Para conectar Msty a Ollama, haz clic en Modelos de Inteligencia Artificial Local en la barra lateral y luego haz clic en el botón de descarga asociado con Llama 3.2. Una vez descargado, puedes seleccionarlo desde el menú desplegable de los modelos.
- Instrucciones del modelo: Una de las características interesantes de Msty es que permite cambiar las instrucciones del modelo. Por ejemplo, podrías utilizar el modelo de lenguaje local como un médico asistido por inteligencia artificial, para escribir, para contabilidad, como un antropólogo alienígena o como un asesor artístico. Para cambiar las instrucciones del modelo, haz clic en Editar Instrucciones del Modelo en el centro de la aplicación y luego haz clic en el botón de chat pequeño a la izquierda del icono de la escoba. Desde el menú emergente, puedes seleccionar las instrucciones que deseas aplicar. Haz clic en Aplicar a este chat antes de ejecutar tu primera consulta.
Conclusión
Msty es una de las mejores herramientas para interactuar con Ollama. Siguiendo estos pasos, podrás comenzar a utilizar Msty de manera efectiva. Te sugiero empezar con los conceptos básicos y, a medida que te familiarices con la aplicación, explorar procesos más complicados. De esta manera, podrás aprovechar al máximo las características de Msty y Ollama para realizar investigaciones y tareas de manera más eficiente y segura, manteniendo tu información privada y bajo tu control.