Saltar al contenido
Portada » Blog » Lumo: la IA privada que Proton metió en F-Droid (sin ruido)

Lumo: la IA privada que Proton metió en F-Droid (sin ruido)

Lumo lleva casi un año disponible en F-Droid y nadie está hablando de él. Eso que ves en pantalla no es una app de demostración: es un asistente de IA real, entrenado y cifrado de extremo a extremo, corriendo localmente en tu teléfono. Sin servidores de Proton analizando lo que escribes. Sin telemetría. Sin el ruido de siempre.

La promesa es clara: privacidad completa. Pero la realidad de una IA privada en Android es más complicada que un eslogan.

Lo que funciona (y sorprende)

El cifrado end-to-end E2EE está ahí de verdad. Los mensajes no salen de tu dispositivo a menos que tú decidas compartirlos. La arquitectura descentralizada de Proton significa que incluso ellos no pueden leer lo que preguntas. Eso es diferente a ChatGPT, Gemini, o incluso Claude en Android, donde tu prompt viaja íntegro a servidores ajenos.

El tamaño del APK ronda los 180 MB, lo que es aceptable para una app que incluye modelos de lenguaje embebidos. Una app de IA puro-privado tiene que traer todo el peso consigo.

Lo uso para drafts rápidos, lluvia de ideas, refactoring de código. En esos casos, la privacidad pesa más que la potencia de respuesta. Lumo no es Claude, pero tampoco intenta serlo. Entiende contexto, mantiene conversaciones coherentes, maneja código. El tiempo de respuesta es lento en dispositivos con menos de 8 GB de RAM, pero predecible.

Dónde se quiebra

Aquí viene lo incómodo: Lumo usa modelos cuanticados de código abierto, no tecnología propietaria. Eso suena liberador hasta que esperas respuestas a nivel GPT-4 y obtienes algo más parecido a GPT-3.5 en su peor día. No es malo, pero es limitado.

La configuración exige que entiendas qué significan «temperatura» o «tokens máximos» para ajustarlo a lo que necesitas. Para gente técnica está bien. Para otros, es fricción innecesaria.

No hay sincronización automática de conversaciones entre dispositivos. Si quieres continuar una charla en tu tablet, cópiala manualmente. Lumo prioriza privacidad sobre conveniencia, y eso tiene un costo real de usabilidad.

El modelo base no es lo suficientemente versátil para trabajos especializados. Copywriting técnico pesado, análisis de datos complejos, o cosas que requieren conocimiento actualizado post-2023: aquí Lumo te queda corto. Es honesto decirlo.

Contra qué lo mido

Ollama (también en F-Droid) es la alternativa local que conozco mejor. Ollama es más modular: descargas el modelo que quieras, compartes máquina con el escritorio, controlas todo. Pero requiere un servidor separado funcionando. Lumo integra todo en el teléfono, punto.

Si no te importa la privacidad y quieres lo mejor que existe, ninguna app de Android privada te lo va a dar. ChatGPT en web o Gemini lo harán mejor. Eso es una realidad incómoda que Lumo no oculta.

Para quién es, realmente

Lumo tiene sentido en tres escenarios específicos:

Primero: trabajas con datos sensibles y no puedes permitirte fugas de contexto. Abogados, periodistas, gente que maneja información personal ajena.

Segundo: viajas a zonas donde no confías en la infraestructura de datos o simplemente no quieres que se sepa que usas IA.

Tercero: odias que las corporaciones de tech sepan lo que estás pensando. No es paranoico; es un posicionamiento legítimo.

Si necesitas el mejor asistente de IA del mercado, esto no es para ti. Si necesitas un asistente funcional, privado, y sin compromisos de datos, merece una oportunidad. La app se actualiza regularmente. El cifrado es sólido. La privacidad, verificable.

Lumo en F-Droid

Lo que sorprende es que siga siendo tan desconocida. Quizá porque promete privacidad sin promesas irreales. Quizá porque no hay presupuesto de marketing en software que respeta.