Saltar al contenido
Portada » Blog » GPTMobile: múltiples LLMs en una app, para quien los necesita

GPTMobile: múltiples LLMs en una app, para quien los necesita

La propuesta es directa: acceder a múltiples modelos de lenguaje desde un solo lugar sin saltar entre apps. Sonaba bien hasta que empecé a usarla y descubrí que la realidad es bastante más matizada.

El punto fuerte es la configuración

GPTMobile no viene preconfigurado con nada. Eso que parece un problema al principio es exactamente lo contrario. Tú decides qué modelos quieres agregar, de dónde obtienes las APIs, qué credenciales usas. Soporta OpenAI, Anthropic, Groq, Ollama local y otros servicios compatibles con OpenAI API compatible (ese es el estándar técnico que abre el abanico).

Esto significa que si tienes un servidor Ollama en casa con Mistral, un proyecto de Groq con un tier gratuito, y una cuenta de OpenAI pagada, puedes tenerlo todo accesible desde la misma interfaz. Una pestaña por modelo. Cambias entre ellos sin cerrar conversación.

El APK ocupa 15 MB. Sin dependencias raras, sin trackers, sin tonterías.

Dónde se cae el sistema

La experiencia real es donde empieza a crujir. GPTMobile es esencialmente un cliente HTTP con interfaz de chat. Si tu conexión falla, si la API de Anthropic está lenta, si introduces mal la clave, esperas a que refresque. No hay caché inteligente, no hay fallback automático a otro modelo si uno no responde.

Comparado con Ollama en local (que corre directamente en el teléfono sin depender de internet), GPTMobile requiere que todas tus APIs estén funcionando. Es una limitación de arquitectura, no un bug, pero es limitación.

Otro tema: la interfaz está funcional, pero poco pulida. La gestión de conversaciones es básica. Si tienes cinco chats abiertos con cinco modelos diferentes y quieres buscar algo concreto de hace tres días, te entras en modo búsqueda manual.

Cuándo tiene sentido usarla

Si tu caso es comparar respuestas en tiempo real entre modelos, GPTMobile lo hace bien. Escribes un prompt, lo envías a Claude 3.5 y a GPT-4o simultáneamente en diferentes pestañas, ves cómo cada uno aborda el problema. Eso es útil para investigación, debugging, o simplemente para validar que no te estás perdiendo perspectivas.

También funciona si tienes un workflow donde usas modelos especializados para tareas diferentes: código con uno, escritura con otro, análisis con un tercero. Sin cambiar de app, sin copiar y pegar entre navegadores.

Pero si lo que necesitas es un asistente de IA rápido, pulido, con historial inteligente, mejor ve por OpenAI ChatGPT (paga, obvio), o incluso AnySoftKeyboard con integración si prefieres algo más ligero pero con menos autonomía.

Lo que nadie te dirá hasta que lo uses

El consumo de batería es proporcional a cuántos modelos tengas activos. Si tienes tres APIs ejecutándose en paralelo esperando respuesta, tu teléfono se comporta como si estuvieras grabando vídeo. No es ineficiente en el código, es física: estás haciendo tres peticiones de red pesadas.

Segundo detalle: si usas Ollama local, necesitas que el modelo sea lo bastante pequeño para tu teléfono. Una Mistral 7B corre bien en un Pixel 7, pero una Llama 2 13B ya te consume casi toda la RAM. GPTMobile no te advierte de esto. Tienes que saberlo antes.

La cuestión pendiente

¿Merece la pena instalarla? Depende de si realmente necesitas compara modelos. Si tu flujo actual es abrir ChatGPT, luego abrir Claude en el navegador, luego Groq en otra pestaña porque necesitas una respuesta rápida gratis, entonces sí. Te centraliza el caos.

Si solo usas un modelo de IA ocasionalmente, es overhead sin ganancia.

GPTMobile en F-Droid