La IA llegará a los iPhone y Mac el mes que viene en EEUU. Apple Intelligence se centra en la privacidad (y en no meter la pata)
La plataforma de inteligencia artificial de Apple comienza su andadura con el foco en la privacidad y en funciones modestas pero prácticas del día a día
Estas funciones estarán disponibles el próximo mes: habrá que tener un poco más de paciencia
La privacidad por bandera
El enfoque de Apple Intelligence en los iPhone y los Mac es híbrido: tendremos una IA en local totalmente privada —todo se procesa en el móvil o en el ordenador, no se transmiten datos a la nube—, y otra, más potente, que sí hará uso de una plataforma en la nube si la necesitamos.
En Apple plantean por tanto un tipo de uso de la IA en la que la mayoría de las veces no necesitaremos ni siquiera una conexión a internet. Podremos pedirle al iPhone o al Mac cosas como las siguientes:
- Herramientas de escritura: si por ejemplo estamos escribiendo un correo electrónico, podremos cambiar el "tono" del texto para hacer que sea más amistoso, profesional o conciso. Además tenemos un "editor avanzado de textos" inteligente que evalúa la gramática, elección de palabras o incluso la estructura de nuestras frases para mejorarlas. Y por supuesto, también podremos seleccionar un texto para que la IA nos genere un pequeño resumen en forma de lista con los puntos más importantes.
- Genmoji: la tecnología Image Playground mostrada por Apple permitirá generar imágenes, aunque estas se alejan del hiperrealismo que buscan rivales como Midjourney o DALL-E. En lugar de eso el foco está por ejemplo en la generación de emojis (Genmoji) o de imágenes con un acabado más de dibujos animados o de caricaturas. Aquí de nuevo Apple quiere tratar de evitar usos polémicos y el potencial uso de la herramienta para crear deepfakes.
- Siri: el asistente de voz de Apple también gana enteros gracias a Apple Intelligence. El contorno de la pantalla tendrá un efecto de iluminación especial cuando lo usemos, y podremos hablar de forma mucho más natural y menos forzada. Siri recuerda además el contexto personal: indexa los datos que tenemos el móvil —como el calendario o los mensajes, y siempre en local y de forma privada— y los usa para contestar a nuestras preguntas rápida y claramente. Por ejemplo, qué día y a qué hora llega nuestra madre e
- n el vuelo que había cogido. Podremos usarlo con la voz, pero ahora también con el teclado.
- Búsqueda de fotos con IA: la IA también reconoce, etiqueta e indexa nuestra biblioteca de fotos de forma local, y "entiende" el contexto de las fotos de forma que podamos buscarlas con una descripción genérica ("mi hijo esquiando") y generando películas con cierta temática ("vacaciones de 2024 en Asturias ").
- ChatGPT al rescate: esas funciones locales se complementan con el uso de chatbots como ChatGPT —habrá otros en el futuro— si los necesitamos. Así, en ciertos escenarios podremos seleccionar la opción de usar ChatGPT aunque en esos casos sí habrá una conexión con la nube y ciertos datos se compartirán, como ya lo hacen cuando lo usamos en la web del servicio.
Esto es solo el principio
El propio Craig Federighi, máximo responsable de la división software de Apple, ya indicó en junio que estas funciones son solo el principio de algo muy importante en Apple.La compañía se ha puesto al día en algunos apartados con respecto a su competencia, pero de momento lo ha hecho tímidamente. Es evidente que el foco es la privacidad —que la IA funcione siempre que se puede en local, en el dispositivo— y un alcance limitado pero práctico.
Las nuevas opciones estarán disponibles en inglés el mes que viene, y en diciembre ofrecerán además versiones especiales para el inglés de Australia, Canadá, Nueva Zelanda, Sudáfrica y Reino Unido. Además, hablan de que el año que viene también se ofrecerá Apple Intelligence en chino, francés, japonés y español.
0 Comentarios
Recuerda que si quieres opinar, hadlo de la manera más profesional posible!