La llegada de DeepSeek revolucionó el sector tecnológico y aceleró la competencia entre China y Estados Unidos como referentes en el desarrollo de inteligencia artificial. Y es que el modelo de IA creado por la empresa china tiene capacidades que igualan o superan al que dominaba el mercado hasta hace poco, ChatGPT de OpenAI. Más allá de que su desarrollo sea más barato, una de las principales novedades que trae DeepSeek es el hecho de ser de código abierto, lo que permite instalar el modelo en tu ordenador y usarlo sin conexión a internet ni compartir tus datos personales.

Puntos Clave:

  1. Usando la aplicación LM Studio es posible ejecutar distintos modelos de lenguaje (LLMs) basados en DeepSeek.
  2. Al descargar un modelo de DeepSeek en LM Studio puedes utilizar la IA en tu PC de forma local, sin necesidad de estar conectado a internet ni compartir tus datos con la empresa china.
  3. La velocidad de carga del chatbot y los LLM disponibles dependen de los recursos de tu PC.

Aunque la capacidad de respuesta de DeepSeek (a un costo de desarrollo mucho menor) tomó por sorpresa a todos, utilizar la IA desde el sitio web o la aplicación móvil hace que compartas muchos datos de uso e información personal con la empresa china y sus socios publicitarios.

La ventaja de DeepSeek es que, al ser de código abierto como Llama de Meta, puedes descargar distintas versiones de esta IA y usarla libremente en tu ordenador con mayor privacidad y de forma gratuita. En este tutorial te mostramos cómo hacerlo.

Cómo instalar DeepSeek de manera local en tu ordenador para usarla sin compartir tus datos (Windows, Mac o Linux)

A diferencia de asistentes de inteligencia artificial basados en la nube como ChatGPT o Gemini, algunos modelos de DeepSeek pueden ejecutarse localmente y de forma gratuita, sin depender de servicios en la nube o APIs privadas.

Hay varias alternativas para usar DeepSeek en un ordenador con Windows, MacOS o Linux, como Ollama o Msty, pero una de las más sencillas e intuitivas es LM Studio, un software para desplegar modelos de lenguaje localmente.

Aquí te mostramos los pasos para empezar a utilizarlo:

  • Ejecuta el instalador y sigue los pasos del asistente para instalar LM Studio.

  • Una vez instalada, abre la aplicación.

  • En la pantalla de bienvenida, tienes la opción de instalar un modelo de Llama (la IA open-source de Meta) preseleccionada, pero no es necesario para usar DeepSeek. Así que, puedes hacer clic en “Skip onboarding” en la esquina superior derecha.

  • En el menú lateral, haz clic sobre el icono de la lupa para ingresar al explorador de LLMs.

  • En el buscador de la parte superior, ingresa “DeepSeek”. Verás todos los modelos disponibles en los resultados. Puedes organizarlos por cantidad de likes o descargas desde el menú desplegable.

Aquí es importante mencionar que las versiones más potentes son aquellas con mayor cantidad de parámetros, pero estas tienen unos requisitos de hardware más elevados. Para que te hagas una idea, el modelo DeepSeek R1 disponible en la versión web es el más avanzado y tiene 67 mil millones de parámetros (67b). Sin embargo, para ejecutarlo localmente necesitarías un equipo muy potente.

Los modelos con 8 mil millones de parámetros (8b) son más acordes a los ordenadores de uso cotidiano, con una memoria RAM más limitada.

Otro punto a tener en cuenta es el formato de cuantización, indicado con la letra Q. Mientras menor sea (Q4 o Q5, por ejemplo), será menos preciso pero también consumirá menos memoria. Los más avanzados, como Q8, necesitan de más recursos.

Lógicamente, estos parámetros también inciden en el tamaño que ocuparán en el PC.

  • Cuando hayas elegido un modelo, haz clic en el botón “Download” de la esquina inferior izquierda para descargarlo al ordenador. En nuestro caso, optamos por una versión ligera de 1.12 GB, 1.5b y Q4 para usar en un portátil de bajos recursos.

  • Espera a que termine la descarga (puede tardar bastante si es un modelo pesado) y vuelve a la pestaña de chat en LM Studio.

  • Pulsa Ctrl + L o haz clic en la barra superior con el texto “Select a model to Load”.

  • Selecciona el LLM que descargaste.

  • Presiona Ctrl + Enter o haz clic en el botón “Load model” en la esquina inferior derecha.

Tras completar estos pasos, ya tienes DeepSeek listo para usar en tu ordenador de forma privada.

Cómo usar DeepSeek localmente en LM Studio (ejecutar la IA sin conexión a internet)

Una vez descargado el LLM de DeepSeek en LM Studio, su funcionamiento es muy similar a cualquier otro chatbot de IA tradicional, solo que no necesitas conexión a internet, ya que todo se ejecuta offline, de forma local.

La interfaz gráfica de LM Studio es parecida a la de ChatGPT, y la plataforma para interactuar es prácticamente igual.

  • Escribe tu mensaje o instrucciones en el cuadro inferior y pulsa Enter o haz clic en “Send” para enviarlo.

  • Arriba de la respuesta, puedes desplegar el cuadro “Thoughts” para inspeccionar el proceso que hizo la IA para responder al prompt. Es decir, una explicación de su interpretación de tu pregunta, los pasos lógicos que sigue y la forma en que construye la respuesta final.

  • Para iniciar una nueva conversación, haz clic en el botón “+” o pulsa Ctrl + N.

  • Si quieres eliminar la versión de la IA que descargaste de tu PC, selecciona el icono de la carpeta en el menú lateral, haz clic en el botón con los tres puntos junto al modelo de IA y luego cliquea en “Delete”.

Conclusiones personales

El avance de la inteligencia artificial nos obliga a seguir de cerca cada novedad del sector y probar distintas alternativas según el uso que le quieras dar, ya sea como un asistente diario, en tareas de programación o en conjunto con otras aplicaciones.

En el caso de DeepSeek, dispones de la opción de utilizar la IA desde la página oficial o en la app móvil de forma gratuita. Ahora bien, instalarlo de forma local en Mac o Windows presenta la ventaja de no tener que compartir tus datos con terceros ni depender de servidores externos para funcionar.

Aun así, la capacidad del hardware puede ser una limitación para muchos usuarios, ya que, como vimos, mientras más potente sea tu PC en términos de RAM y GPU, podrás ejecutar modelos de DeepSeek más precisos y avanzados, pero si tienes un portátil con menos recursos tendrás que utilizar LLMs más básicos para no tener problemas de rendimiento.