¿Curioso por Deepseek pero preocupado por la privacidad? Estas aplicaciones le permiten usar un LLM sin Internet

La mayoría de nosotros estamos acostumbrados a usar chatbots de Internet como ChatGPT y Deepseek de una de dos maneras: a través de un navegador web o a través de sus aplicaciones dedicadas de teléfonos inteligentes. Hay dos inconvenientes en esto. Primero, su uso requiere una conexión a Internet. En segundo lugar, todo lo que escribe en el chatbot se envía a los servidores de las empresas, donde se analiza y se retiene. En otras palabras: cuanto más use el chatbot, más la compañía sabe sobre usted. Esta es una preocupación particular en torno a Deepseek que los legisladores estadounidenses han expresado.
Pero gracias a algunas aplicaciones de escritorio innovadoras y fáciles de usar, LM Studio y GPT4All, puede evitar ambos inconvenientes. Con las aplicaciones, puede ejecutar varios modelos LLM en su computadora directamente. He pasado la última semana jugando con estas aplicaciones y gracias a cada una, ahora puedo usar Deepseek sin las preocupaciones de privacidad. Así es como tú también puedes.
Ejecute Deepseek localmente en su computadora sin conexión a Internet
Para comenzar, simplemente descargue LM Studio o GPT4All en su Mac, Windows PC o Linux Machine. Una vez que se instale la aplicación, descargará el LLM de su elección desde un menú en la aplicación. Elegí ejecutar el modelo R1 de Deepseek, pero las aplicaciones admiten innumerables LLM de código abierto.
Una vez que haya hecho lo anterior, esencialmente ha convertido su computadora personal en un servidor de IA capaz de ejecutar numerosos LLM de código abierto, incluidos los de Deepseek y Meta. A continuación, simplemente abra una nueva ventana de chat y escriba tal como lo haría al usar un chatbot Ai en la web.
Lo mejor de ambas aplicaciones es que son gratuitos para el uso general del consumidor, puede ejecutar varios LLM de código abierto en ellas (puede elegir cuál y puede intercambiar entre LLM a voluntad) y, si ya sabe cómo usar un chatbot de IA en un navegador web, sabrá cómo usar el chatbot en estas aplicaciones.
Pero también hay beneficios adicionales para ejecutar LLM localmente en su computadora.
Los beneficios de usar un LLM localmente
He estado ejecutando el modelo de razonamiento de Deepseek en mi MacBook durante la semana pasada sin tanto como un hipo en LM Studio o GPT4All. Una de las mejores cosas de interactuar con Deepseek de esta manera es que no se requiere Internet. Dado que el LLM se aloja directamente en su computadora, no necesita ningún tipo de conexión de datos con el mundo exterior para usarlo.

O como el desarrollador principal de GPT4All, Adam Trata, dice: "Puedes usarlo en un avión o en la parte superior del Monte Everest". Esta es una gran bendición para los viajeros de negocios atrapados en vuelos largos y aquellos que trabajan en zonas rurales remotas.
Pero si Treat tuviera que resumir el mayor beneficio de ejecutar Deepseek localmente en su computadora, lo haría en una palabra: "privacidad".
“Cada LLM en línea está alojada por una empresa que tiene acceso a lo que ingrese en el LLM. Por razones personales, legales y regulatorias, esto puede ser menos que óptimo o simplemente no posible ”, explica Treat.
Mientras que para las personas, esto puede presentar riesgos de privacidad, aquellos que cargan documentos comerciales o legales en una LLM para resumir podrían estar poniendo en peligro a su empresa y sus datos.
"Cargar eso (tipo de datos) a un servidor en línea corre el riesgo de sus datos de una manera que usarlo con un LLM fuera de línea no lo hará", señala Treat. La razón por la cual un LLM fuera de línea que se ejecuta localmente en su propia computadora no pone en riesgo sus datos es porque "sus datos simplemente nunca dejan su máquina", dice Treat.
Esto significa que, por ejemplo, si desea usar Deepseek para ayudarlo a resumir ese informe que escribió, puede cargarlo en el modelo Deepseek almacenado localmente en su computadora a través de GPT4All o LM Studio y estar seguro de que la información en ese informe no se envía a los servidores de los fabricantes de LLM.
Los inconvenientes de usar un LLM localmente
Sin embargo, hay inconvenientes para ejecutar un LLM localmente. La primera es que está limitado a usar solo los modelos de código abierto que están disponibles, que pueden ser menos recientes que el modelo disponible a través del sitio web oficial de ChatBot. Y debido a que solo se pueden instalar modelos de código abierto, eso significa que no puede usar aplicaciones como GPT4All o LM Studio para ejecutar el CHATGPT de OpenAI en su computadora.
Otra desventaja es la velocidad.
"Debido a que está utilizando su propio hardware (su computadora portátil o escritorio) para alimentar la IA, la velocidad de las respuestas será generalmente más lenta que un servidor en línea", dice Treat. Y dado que los modelos AI dependen en gran medida de RAM para realizar sus cálculos, la cantidad de RAM que tiene en su computadora puede limitar qué modelos puede instalar en aplicaciones como GPT4All y LM Studio.
"Como los servidores en línea generalmente funcionan con un hardware de muy alta gama, generalmente serán más rápidos y tendrán más memoria permitiendo respuestas muy rápidas de modelos muy grandes", explica Treat.
Aún así, en mis pruebas de LM Studio y GPT4All durante la semana pasada, no creo que la reducción de la velocidad de las respuestas de Deepseek sea un factor decisivo. Cuando se usa el modelo de razonamiento R1 de Deepseek en la Web, el Deepseek alojado en los servidores en China tardó 32 segundos en devolver una respuesta al mensaje "¿Puedes enseñarme cómo hacer un pastel de cumpleaños?" Al preguntar el modelo local de Deepseek R1 almacenado en LM Studio y GPT4All, el tiempo de respuesta fue de 84 segundos y 82 segundos, respectivamente.
Descubrí que los beneficios de ejecutar Deepseek localmente en mi dispositivo usando LM Studio y GPT4All superan con creces el tiempo de espera adicional requerido para obtener una respuesta. Sin lugar a dudas, poder acceder a un poderoso modelo de IA como el R1 de Deepseek localmente en mi computadora en cualquier lugar en cualquier momento sin una conexión a Internet, y conocer los datos en los que entro en él sigue siendo privada, es una compensación que vale la pena hacer.