Hace algunos meses empezó a tomar cada vez más fuerza el rumor que indicaba que Apple se encontraba trabajando en el desarrollo de un chatbot de inteligencia artificial, similar a ChatGPT, con el fin de competir de lleno con gigantes de este segmento como Open AI y Google.
La herramienta sería llamada "Apple GPT" y ahora todo tiene mucha más fuerza, ya que se ha conocido que un grupo de investigadores de Apple han publicado un informe titulado "LLM in a flash" con una propuesta que llama mucho la atención.
Tiene que ver con el almacenamiento Flash y determina que este es más abundante en dispositivos móviles que la memoria RAM que normalmente se usa en LLMs y la habilitación de dos sistemas para mejorar la experiencia de . Una llamada "windowing", que la IA reutilice parte de los datos ya procesados,
y "Row-Column Bundling", que reagrupa los datos de forma más y con esto potencia la capacidad de la IA para comprender y generar lenguaje.
Uno de los detalles que se presume es que "AppleGPT" no funcionaría desde la nube y tendría un funcionamiento ligado directamente a los celulares o dispositivos móviles y esto haría que tengamos una respuesta aun si no hay conexión a redes de datos.
En temas de velocidad también se prevén mejoras. Por ejemplo, el estudio asegura que las técnicas permitirían multiplicar por 4-5 veces la velocidad de proceso de IA en la U móvil, y hasta 20-25 veces en su GPU, "este avance es especialmente crucial para desplegar LLM avanzados en entornos con recursos limitados, ampliando así su aplicabilidad y accesibilidad", indicaron.
Sin embargo, la empresa no se ha referido explícitamente a este proyecto, pero se espera que durante el 2024 se conozcan más detalles sobre los esfuerzos de Apple para sumarse a la revolución de la inteligencia artificial.
También puede leer: