No tenía idea de cómo hacer una IA local y lo hice con mi Android en cinco minutos. Fue un desastre – Noticias ultima hora

La carrera que hace que el teléfono inteligente capaz no esté solo en sus componentes: la IA es un esencial absoluto para ganar esta pelea. Géminis es el protagonista absoluto, tanto en Android como en un iOS en el que la presencia de IA es insignificante. Un asistente completo y capaz con el requisito de estar conectado permanentemente a Internet.

Google, la madre de Gemini, ha decidido dar a los modelos 100% locales una oportunidad de Android. Incluido el de sus competidores. Yo, que nunca había llevado a cabo una IA local en una PC, podía contactarla en mi teléfono en cinco minutos.

10 aplicaciones de Google que podrían haber triunfado

Instalación de la Galería Google Ai Edge

Google ha publicado una aplicación de código abierto para que cada usuario pueda interactuar con modelos de IA multimodales. Es completamente gratis, no tiene publicidad y su única restricción es que no se publica en Google Play Store. Necesitas Descargarlo de Github.

Es tan simple como hacer clic en el enlace y descargar el archivo con un peso de 115 MB. Tan pronto como lo haya descargado, haga clic en él e instale como cualquier otra aplicación. Dependiendo del nivel de ajuste que use y del navegador que use desde el cual lo descarga, es posible que el sistema requiera el permiso ocasional. Délo sin miedo porque es una aplicación limpia de Google.

Después de la instalación, la aplicación está en el cajón de la aplicación o en el escritorio de su teléfono, dependiendo de su nivel. Simplemente ábralo y descargue los modelos disponibles para usarlos.

Use la IA local en mi Android

Con esta aplicación, puede usar cuatro modelos dados de la IA local:

  • GEMMA-3N-E2B-IT-IN4
  • GEMMA-3N-E4B-IT-IN4
  • Gemma3-1b-it-q4
  • QWEN2.5-1.5B-Instructo Q8

Es muy probable que cada uno de estos nombres suena a los chinos, pero hay un resumen muy simple. Gemma son los modelos de Google y el número detrás de «E2B, E4B, 1B», Se refiere al número de parámetros de cada modelo (2 mil millones, 4,000 millones, 1,000 millones). Esto significa que Gemma 3 1B es el modelo más rápido pero más básico en el orden, seguido de E2B y E4B en la cabeza como el más completo.

La página Qwen es un modelo chino desarrollado por Alibaba con 1,5 mil millones de parámetros y una precisión bastante lógica. Estos son los modelos que trae la aplicación, pero podemos instalar modelos nosotros mismos.

Lo que gano y lo que pierdo con los lugareños

La aplicación de Google fue desarrollada para llevar a cabo tres escenarios de uso:

  • Preguntas de imágenes: Solución problemática, identificación de objetos, etc.
  • Laboratorio de tareas de entrada para resúmenes, reescritura de textos y Codegen.
  • Ki Chat: conversaciones multiominales con AI

La IA local es un poco más limitada en estos escenarios de uso, pero a cambio es privado. Se ejecuta 100% en su teléfono sin conexión con servidores. Esto minimiza la latencia de respuesta, algo que quería verificar con una prueba bastante simple: la traducción de un texto que no es demasiado extenso.

«Si la potencia informática para cada chip continúa creciendo exponencialmente, también fue útil en aplicaciones comerciales.
«Cuando el Ministro de Defensa de los Estados Unidos, Robert McNamara, reformó la adquisición militar a principios de la década de 1960, lo que llevó al hecho de que el submarino en la industria de la electrónica se llamaba» Depresión de McNamara «, la visión de Fairchild de chips parecía intentar más clientes para probar más clientes».
  • CHATGPT (4to): 5 segundos
  • Deepseek: 19 segundos
  • El Google local (Gemma 3 1B): no entendió la instrucción.
  • Google Local (Gemma 3 E2B): 26 segundos.
  • Google Local (Gemma 3 E4B): 34 segundos.
  • Google Local (Qwen 2.5): 16 segundos.

Los resultados son bastante irregularesY eso significa que la aplicación está en su fase inicial. El principal problema que encontré es que a veces es difícil para él llevar a cabo el modelo, incluso en casos de modelos de luz como Qwen. En un Samsung Galaxy S25 Ultra, tuve que reiniciar la aplicación en alguna ocasión porque no hice el aviso.

También quería demostrar cómo los problemas simples con la comprensión visual de las imágenes usan el modelo E4B pesado de Gemma. También fue bastante desastre. En el primer intento le pedí que resolviera todos los problemas. Lo logró. En el segundo le pedí que resolviera solo el primero. Estaba equivocado y después de decirle que estaba mal, estaba equivocado.

Sí, hace un buen trabajo para reconocer elementos en las imágenes, pero aún es difícil continuar (Google solo deja que Gemma modelos seleccione estas tareas).

El asistente de conversación funciona bien con sus límites, pero bueno. Sirve para hablar y ayudarnos con todas las tareas que podemos imaginar que no está buscando un tiempo real que se busque en Internet.

Si está particularmente celoso de su privacidad y que desea prescindir de una conexión de servidor, esta es una alternativa relativamente válida. Google tiene esta aplicación como laboratorio de prueba. Al menos por el momento no es una alternativa real, y mucho menos Géminis.

Imagen |

En | Inteligencia artificial en su PC: las mejores herramientas gratuitas para instalar modelos de IA como Deepseek, Call, Mistral, Gemma y más

Compartir:
Facebook
Twitter
LinkedIn
Reddit

Noticias relacionadas