Tecnoaficiones

Las nuevas tecnologías al alcance de todos.

Agregador de canales de noticias

20 años de Aperture, probablemente el editor de fotos más llorado y querido de Apple

Actualidad en Applesfera - Vie, 07/11/2025 - 18:00

Los nostálgicos afirman que abrir Aperture en un Mac a mediados de los 2000 era una experiencia en sí mismo. Las fotos se deslizaban con fluidez, los efectos se aplicaban en tiempo real y todo parecía diseñado para que el fotógrafo se centrase en lo importante: la imagen. Sin menús innecesarios, ni dar demasiados pasos. Pura Apple.

Veinte años después, se sigue recordando con una mezcla de nostalgia y frustración. Aperture representó lo que Apple podía lograr combinando hardware, software y diseño en una aplicación. Es algo que siguen haciendo en muchas herramientas, pero no con un Aperture que acabó marchitándose. O, mejor dicho, Apple dejó que se marchitase.

No era un simple clon de Photoshop Así lucía Aperture en sus primeras versiones (Imagen: Apple)

Un 19 de octubre de 2005, Apple sorprendía con un inesperado anuncio. Nacía Aperture, una nueva herramienta con la que pretendían meterse en el bolsillo a los fotógrafos profesionales que usasen Mac. Era librarse de las 'garras' de una ya asentada Adobe que arrasaba el mercado de software de edición fotográfica con Photoshop.

En Applesfera Llevo años buscando editores de fotos para el iPhone. Resulta que ya hay uno instalado, que es gratis y me sirve en el 99% de los casos

Apertura fue construido desde cero para Mac apoyándose en tecnologías como Core Image y Quartz Extreme. Era una aplicación que pretendía ofrecer herramientas como la aplicación de efectos y previsualizaciones en tiempo real, algo no tan extendido en aquellos primeros años del siglo XXI.

Cuando el software aún se distribuía mediante CDs

Llegó al mercado con un precio de 499 dólares, vendiéndose en los ya extintos CDs en los que por aquel entonces se distribuía el software. Un precio que ya en la época era alto, pero que daba muestras de lo muy en serio que iba Apple con este asunto. No quería ser un clon más de Photoshop.

Fue además una de las primeras aplicaciones de Apple en recibir actualizaciones frecuentes enfocadas en aportar compatibilidad con nuevas cámaras, pulir su rendimiento y, por supuesto, introducir nuevas funciones. Era otra prueba más del compromiso de Apple con el área creativa.

El abandono de Aperture

Si Photoshop no era suficiente, Adobe quiso romper el mercado con la introducción de Lightroom en 2007. Para aquella época, Aperture 2 ni siquiera había llegado (llegaría en 2008). No fue la puntilla para Apple, pero sirvió para desequilibrar la balanza en favor de Adobe, que garantizaba plena integración con Photoshop, que seguía siendo la más popular.

Antes de su abandono, Apple llegó a lanzar una tercera versión de Aperture

La llegada de OS X Lion y después Mountain Lion trajo consigo pequeños retoques para Aperture. Pero no había indicios de una apuesta a largo plazo por parte de Apple que pudiese convencer al público al que se enfocaba la herramienta.

Los principales esfuerzos de Apple estaban ya centrados en los iPhone y su ecosistema que acababa de nacer. Los productos para Mac fueron perdiendo protagonismo y Aperture pasó a un discreto segundo plano en las prioridades de una firma dirigida todavía por Steve Jobs.

{"videoId":"x9j69su","autoplay":true,"title":"APPLE estuvo a punto de desaparecer por CULPA del iPod", "tag":"webedia-prod", "duration":"1194"}

El testigo de CEO llegó a Tim Cook en 2011 y ya de aquellas Aperture desprendía olor a cerrado. Aunque no fue hasta tres años después, en 2014, cuando Apple confirmó que Aperture dejaría de desarrollarse. A cambio, presentaron mejoras en la app Fotos, que sería el epicentro de sus esfuerzos en edición de imagen y heredaría parte de las funciones estrella de la ya muerta Aperture.

Durante un tiempo, Aperture siguió funcionando en Mac antiguos, pero su destino estaba ya firmado. Fue con macOS 10.15 Catalina, con la definitiva transición a 64 bits, que Apple eliminó la posibilidad de ejecutarlo de forma oficial. Y es importante el matiz de "oficial" (guiño, guiño).

Aperture a día de hoy sigue viva... más o menos Aperture funcionando en macOS Big Sur (Imagen: PhotoJoseph)

Apple no da soporte a Aperture y tiene poca pinta de que vuelva a darlo o lance otra versión. Sin embargo, pese a la transición primero a chips de 64 bits con Intel y a Apple Silicon después, un grupo de entusiastas logró resucitarlo con una máquina virtual

Herramientas como Retroactive permiten seguir ejecutando aplicaciones a las que Apple ya no da soporte. No solo Aperture, sino el también extinto iTunes y otras herramientas que nunca llegaron a codificarse para ordenadores hechos con las nuevas arquitecturas.

En Applesfera Qué fue de Scott Forstall, el llamado a sucesor de Jobs que fue despedido tras el desastre de Apple Maps

En ordenadores que ya de serie tienen chips en 32 bits, Aperture puede seguir funcionando con relativa normalidad con versiones como macOS 10.14 Mojave. Aunque ya como algo destinado a nostálgicos que aún conserven ordenadores de esa época, dado que en ordenadores más modernos (aunque exista Retroactive) no es tan práctico usarlo.

Aperture quedará en el recuerdo de muchos como lo que pudo ser y no fue. Como símbolo de una Apple que soñaba con ofrecer herramientas tan potentes como los artistas demandaban. Y en cierto modo, parece que no abandonan la idea tras la compra de Pixelmator el año pasado. Aunque ya tememos que la dejen morir por falta de adaptación a los nuevos tiempos.

Imagen de portada | Montaje con captura de 17parkc en Reddit

En Applesfera | Los cinco mejores programas para editar fotos en Mac (2025)

En Applesfera | Apple Fotos, qué es y cómo funciona la aplicación para ordenar y editar imágenes que viene en todos los iPhone

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia 20 años de Aperture, probablemente el editor de fotos más llorado y querido de Apple fue publicada originalmente en Applesfera por Álvaro García M. .

He decidido que mi próximo coche se abrirá con el iPhone. Esta es la lista de candidatos y lo que me va a costar el capricho

Actualidad en Applesfera - Vie, 07/11/2025 - 17:00

Aún recuerdo cuando renové mi coche hace unos años y por fin tenía CarPlay. Era algo que en aquel momento me hizo mucha ilusión y lo sigo disfrutando cada día: poner mi música en Apple Music, los mapas de Apple que tienen una interfaz increíble, responder llamadas y mensajes. Viniendo de un coche que apenas tenía conexión Bluetooth, el salto fue gigante.

Ahora me vuelve a tocar renovar el coche y aquí estoy pensando en cuál elegir porque quiero dar el siguiente paso. Ya tengo CarPlay y ahora me gustaría tener Car Key, la llave digital del iPhone. Además, justo esta semana he perdido una llave del coche y estoy con la de repuesto. Qué fácil hubiese sido todo esto con el iPhone.

Cuando BMW te deja probar Car Key

Hace un par de años tuve la oportunidad de probar un BMW M3 Competition con Car Key. Lo hice de la mano de BMW, ya que fue la primera marca en incorporar Car Key. Me dirigí a un concesionario en mi ciudad y les pregunté sin ningún tipo de vergüenza todo lo que quería saber. Ellos me dejaron incluso conducir el coche.

{"videoId":"x92eb86","autoplay":true,"title":"Hereda el coche de su abuelo y resulta ser el el auténtico primer coche con la marca "Apple"", "tag":"apple car", "duration":"506"}

Lo primero y para quedarnos tranquilos: aunque tengas una llave digital Car Key de Apple, sigue existiendo una llave tradicional. Los coches modernos ya tienen una llave NFC, así que Car Key simplemente aprovecha esa tecnología que ya existe.

La configuración fue muy sencilla. Me descargué la aplicación de BMW, añadí la llave digital como si fuese una tarjeta en Apple Pay. Todo desde la app. Luego tuve que sincronizar el iPhone con el coche: metí el dispositivo en la bandeja de carga inalámbrica, se sincronizó y listo. La llave quedó en la app Cartera. Una llave más, como una tarjeta más. También pude ponerla en el Apple Watch.

Abrir y arrancar el coche es lo más natural del mundo. Para abrir, sacaba el iPhone como si fuese a pagar con Apple Pay, lo acercaba al manillar y el coche se abría. Abría la puerta y me metía dentro. Para conducir, posicionaba el iPhone en la bandeja de carga y el coche lo detectaba como la llave. Pulsar el botón de arranque y listo.

Lo mejor es que la llave no se olvida en casa. No tienes que ir a por ella arriba al piso si quieres conducir. No la pierdes, como me ha pasado a mí esta semana. Además, puedes invitar a otras personas a abrir el maletero o a conducir. Creas varias llaves sin entregar la tuya.

Y por supuesto, lo cómodo que es no llevar una cosa más en el bolsillo. Ahora mismo con esto no necesito cartera. Llevo las tarjetas, el DNI digital, el carné de conducir y la llave del coche. Todo en el iPhone.

Claro que la gente me pregunta: ¿y si pierdes el iPhone? No me gustaría perderlo, pero tengo AppleCare+, así que si me lo roban o lo pierdo, me dan un sustituto. Tengo la llave de repuesto real en casa. Y si quiero, inicio sesión en otro iPhone y descargo la llave.

Las marcas que hoy ofrecen Car Key

Car Key es una tecnología que empezó siendo cosa de marcas premium. Nació en BMW y de ahí se ha ido expandiendo lentamente a otras marcas. Hoy ves Car Key en Polestar o Volvo, que siguen estando en el rango de coches caros. Pero poco a poco empieza a bajar a gamas más accesibles.

Hyundai y Kia ya lo ofrecen, aunque todavía no en sus modelos más básicos. Es el mismo camino que siguió CarPlay: empezó en lo alto, tardó años en bajar y ahora casi todos los coches lo tienen. Car Key irá por el mismo camino, pero de momento sigue siendo cosa de un número limitado de marcas.

He estado buscando e investigando cuál es la lista actual. La verdad es que la información en Internet no está tan actualizada como debería, ni siquiera en la página de Apple está todo al día. Así que aquí va lo que he encontrado: estas son las marcas generales que hoy son compatibles con Car Key. A partir de aquí puedes empezar a filtrar, ver cuál te atrae y valorar qué modelo te gustaría para tu próximo coche.

BMW

  • 2021 en adelante 1 Series
  • 2021 en adelante 2 Series
  • 2021 en adelante 3 Series
  • 2021 en adelante 4 Series
  • 2021 en adelante 5 Series
  • 2021 en adelante 6 Series
  • 2021 en adelante 8 Series
  • 2021 en adelante X5
  • 2021 en adelante X6
  • 2021 en adelante X7
  • 2021 -en adelante X5 M
  • 2021 en adelante X6 M
  • 2021 en adelante Z4
  • 2022 -en adelante i4
  • 2022 en adelante iX
  • 2022 -en adelante iX1
  • 2022 en adelante iX3
  • 2023 en adelante i3
  • 2023 en adelante i7
  • 2024 en adelante i5

mini

  • 2024 en adelante Aceman
  • 2024 en adelante Cooper (3-puertas) C / S
  • 2023 en adelante Cooper (3-puertas) E / SE
  • 2024 en adelante Cooper (5-puertas)
  • 2023 en adelante Countryman

Audi

  • 2025 A5
  • 2025 Q5
  • 2025 SQ5
  • 2025 A6
  • 2025 S6
  • 2025 Q6
  • 2025 SQ6

Polestar

  • Polestar 3 
  • Polestar 4

volvo

  • 2024 en adelante EX30
  • 2024 en adelante EX90

BYD

  • 2022 en adelante HAN

Genesis

  • 2023 en adelante G90 MY23 
  • 2023 en adelante GV60 (Performance)
  • 2023 en adelante G90
  • 2023 en adelante GV60 (Performance)
  • 2024 G70  
  • 2025 G70
  • 2026 G70 3.3T Sport Prestige AWD & RWD
  • 2025 G80 2.5T Sport Prestige
  • 2025 G80 3.5T Sport Advance & Prestige 
  • 2025 GV80 
  • 2025 GV80 Coupe 
  • 2025 G90
  • 2026 G80 EV Prestige 
  • 2026 GV70 Sport Prestige, Sport Advanced, Sport Prestige

Hyundai

  • 2023 en adelante Palisade
  • 2024 en adelante Elantra
  • 2024 en adelante Kona
  • 2024 en adelante Santa Fe
  • 2024 en adelante Sonata
  • 2025 en adelante Tucson
  • 2025 en adelante Santa Cruz
  • 2025 en adelante IONIQ 5
  • 2023 en adelanter IONIQ 6
  • 2026 en adelante IONIQ 9

KIA

  • 2023 en adelante Telluride  
  • 2023 en adelante Niro  
  • 2023 en adelante Seltos  
  • 2024 en adelante EV3  
  • 2024 en adelante EV6  
  • 2024 en adelante EV9  
  • 2024 en adelante Sorento  
  • 2025 en adelante Carnival  
  • 2025 en adelante K5  

Genesis

  • 2023 en adelante GV60  
  • 2023 en adelante G90  
  • 2024 en adelante G70  
  • 2024 en adelante GV70  
  • 2024 en adelante GV90  

Mercedes

  • 2024 en adelante E‑Class
  • 2025 en adelante EQS
  • 2025 en adelante EQE

LOTUS

  • 2024 en adelante Eletre
  • 2024 en adelante Emeya

RAM

  • 2025 RAM 1500

NIO

  • ET7

Después de probar el BMW, está claro que Car Key funciona de maravilla. Pero también está claro que Car Key es cosa de marcas premium. BMW, Mercedes, Audi. Casi todas las opciones están en 40.000 euros para arriba. Eso no entra en mi presupuesto. Así que busqué otras opciones algo más económicas.

Las tres opciones que me rondan la cabeza

Después de investigar, tengo tres candidatos en la cabeza. El Hyundai Kona es la opción más barata con Car Key. Es un SUV (que me gustan), va bien para ciudad y es una marca que conozco de sobra. El Kia Niro es parecido, pero un poco más grande. Si necesitas más maletero o simplemente te gusta más el tamaño, el Niro está ahí sin subir mucho el precio.

Y luego está el Mini. Es pequeño, urbano, fácil de aparcar. Si buscas algo con personalidad sin romper el banco, el Mini lo tiene, y según qué versión, el precio puede ser más interesante de lo que tenemos asociado a la marca.

Eso sí, si algo he aprendido es que el precio no es un número fijo. Una cosa es lo que ves en la web y otra la que te dan en el concesionario. También depende de si lo quieres nuevo o estás dispuesto a mirar algo de hace un par de años. Depende de la configuración que elijas, de si es acabado base u opciones. Depende de las ofertas del momento y de lo que negocies con el vendedor.

Lo bueno de Car Key es que funciona igual en un coche nuevo que en uno de dos años. Así que si encuentras un Kia o un Hyundai de hace un par de años en buen estado, sigue siendo compatible. Y ahorras dinero. Bastante dinero. O quién sabe, quizá un BMW del 2021.

¿Mi decisión? El Mini me encanta, el Hyundai también

La verdad es que estoy entre los dos. El Hyundai Kona me encanta por su estilo actual. El frontal es precioso. Sin embargo, el Mini es un clásico. Por fuera no me gusta tanto, los faros no me convencen, pero el interior es una pasada. Esa pantalla redonda es muy característica. El Kona es más actual, el Mini tiene más alma o presencia.

Y una última cosa que quería compartir: cada marca llama Car Key de una forma diferente. En Hyundai se llama Digital Key 2. En Mini está dentro de un paquete de ampliación. Cada una lo nombra de manera distinta y en Internet la información no siempre está clara.

Lo mejor que puedes hacer es ir a la marca que te guste, mirar el modelo que quieras y verificar si tiene Car Key. Al menos con la lista de este artículo sabes a qué marcas no ir, ya que todavía no tienen la llave digital. A partir de ahí, todo lo demás es gusto personal, presupuesto y lo que encuentres disponible en el mercado.

En Applesfera | Nuevos iPhone 18 - Todo lo que creemos saber sobre ellos

En Applesfera | Nuevo CarPlay Ultra: características, coches compatibles, qué iPhone se necesita y más información

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia He decidido que mi próximo coche se abrirá con el iPhone. Esta es la lista de candidatos y lo que me va a costar el capricho fue publicada originalmente en Applesfera por Guille Lomener .

Deslizar la pantalla de bloqueo del iPhone abre la cámara y no siempre es útil. Cómo desactivarlo con iOS 26.1

Actualidad en Applesfera - Vie, 07/11/2025 - 16:00

Durante años, ha bastado con deslizar la pantalla de bloqueo del iPhone hacia la izquierda para acceder a la cámara al instante. Una función pensada para no perder un momento, pero que también ha generado frustraciones y se ha vuelto más inútil al tener otros accesos rápidos para la cámara. Por eso, la nueva versión de iOS 26.1 lanzada esta semana es interesante.

Esta actualización permite desactivar el acceso a la cámara desde la pantalla de bloqueo. Y aunque es completamente opcional y habrá quienes sigan viéndolo útil, para otros es un alivio porque evitará alguna que otra frustración.

Cómo desactivar este acceso a la cámara

Lo primero de todo, como ya imaginarás, es tener iOS 26.1 instalado en tu iPhone. Si eres de los que ha instalado la beta de iOS 26.2, también lo tendrás, ya que es un ajuste que ha venido para quedarse. Si cumples con ello, los pasos a seguir son así de fáciles:

  • Abre Ajustes en el iPhone.
  • Entran en el apartado de Cámara.
  • Desactiva la opción Acceso deslizando la pantalla de bloqueo.

Una vez que hagas esto, por mucho que deslices hacia la izquierda la pantalla de bloqueo, no activarás nada. Hacia la derecha sí aparecerá el panel de widgets como de costumbre, pero nada de acceso a la cámara.

Por qué desactivar (o no) este ajuste del iPhone {"videoId":"x9rxj7g","autoplay":true,"title":"Samsung vs iPhone | Las dos tienen móviles finos, pero solo uno tiene el MEJOR", "tag":"iPhone air", "duration":"693"}

Una razón para retirar este acceso, y que personalmente me atañe, es la de evitar que la cámara se abra por accidente e incluso llegues a hacer fotos por error. Y sobre todo porque ya hay varias formas de acceder a la cámara rápidamente: desde el centro de control, con el acceso rápido en el icono de la pantalla de bloqueo, mediante Siri y hasta con el botón de cámara de los iPhone 16, iPhone 17 y iPhone Air.

En Applesfera Me fui de concierto con el iPhone 17 Pro Max. Estas son las fotos y vídeos que he hecho. Apple tiene algo importante que corregir

Pero claro, también hay razones para mantener este acceso rápido. El fundamental de todos es que sea útil. En mi caso personal, no abro nunca la cámara así, pero si tú estás habituado a ello, no hay razón para que pierdas esa forma de abrirla.

Además, tiene una utilidad secundaria muy práctica cuando activas el flash para usar el iPhone de linterna. Y es que, en lugar de tener que apagarlo manualmente, si estás en la pantalla de bloqueo y haces el gesto de abrir la cámara ligeramente, ya será suficiente para apagarla. Sea como fuere, ahí tienes la opción.

Imagen de portada | Amanz en Unsplash

En Applesfera | Cómo conseguir mejores fotografías con tu iPhone cambiando estos ajustes

En Applesfera | Llevo años buscando editores de fotos para el iPhone. Resulta que ya hay uno instalado, que es gratis y me sirve en el 99% de los casos

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia Deslizar la pantalla de bloqueo del iPhone abre la cámara y no siempre es útil. Cómo desactivarlo con iOS 26.1 fue publicada originalmente en Applesfera por Álvaro García M. .

Respuestas automáticas con IA: Cómo configurarlas en Whatsapp

Actualidad en Androidsis - Vie, 07/11/2025 - 14:35

WhatsApp se ha convertido en el canal preferido para hablar con las marcas, y automatizar la atención ya no es una rareza, sino una ventaja competitiva. En este artículo vas a ver cómo combinar respuestas automáticas, chatbots e inteligencia artificial para atender mejor, más rápido y sin perder el toque humano.

Vamos a recorrer beneficios, ejemplos reales y todas las formas de configurarlo, desde WhatsApp Business hasta la API y herramientas especializadas. También verás cómo la IA de Meta dentro de la app puede ayudarte a generar contenido y gestionar consultas, además de integraciones con CRM y casos de éxito que demuestran resultados.

¿Qué significa responder con IA en WhatsApp?

Responder con IA implica usar sistemas que comprenden el lenguaje natural y devuelven mensajes útiles sin intervención constante del equipo. Estos asistentes pueden interpretar lo que el cliente escribe, incluso con errores, enviar enlaces, documentos, imágenes o proponer la siguiente acción lógica, como agendar una cita o compartir un enlace de pago.

A diferencia de los bots rígidos, los asistentes con IA van más allá de las frases enlatadas: detectan la intención, consultan bases de conocimiento y personalizan las respuestas según el contexto. Además, se integran con otras redes como Instagram y Facebook, y con tu CRM, para nutrir fichas de contacto, etiquetar leads y disparar automatizaciones.

Ventajas de configurar respuestas automáticas en WhatsApp

La automatización no es solo velocidad: impacta en satisfacción, ventas y reputación. Entre los beneficios más citados por negocios de todos los tamaños destacan los siguientes:

  • Disponibilidad continua: atención 24/7, también fuera de horario.
  • Inmediatez: respuestas al instante que mejoran la experiencia.
  • Ahorro de tiempo: cobertura de preguntas frecuentes sin esfuerzo manual.
  • Imagen profesional: consistencia y tono de marca en cada interacción.
  • Mayor satisfacción y fidelización: resolver rápido reduce fricción.
  • Mejor flujo de trabajo: prioriza y deriva consultas al equipo adecuado.
  • Personalización: mensajes alineados con tu identidad y audiencia.
  • Menos estrés operativo: el equipo se centra en tareas de mayor valor.
  • Escalabilidad: soporta picos de demanda sin perder calidad.
  • Ventas y clasificación de leads: califica, segmenta y aumenta conversiones.

Además, estudios del sector apuntan a que los chatbots pueden gestionar hasta el 79% de las consultas rutinarias y reducir costes de atención en un 30%. La personalización también influye: informes como los de Zixflow señalan que un 65% de los consumidores compra con mayor predisposición tras recibir mensajes adaptados.

Ejemplos de respuestas automáticas que funcionan

Los mensajes preconfigurados son la base para empezar. Te pueden servir como plantilla, ajustando tono, emojis y enlaces según la marca y el canal. Estos cuatro tipos cubren la mayoría de casos:

Bienvenida: “Hola, gracias por escribirnos. En breve te respondemos.” Colócale una nota de calidez y, si procede, un botón o enlace para que el cliente avance sin esperar.

Fuera de horario: “Nuestro horario es de 9:00 a 18:00. Puedes hablar con el chatbot y un agente te atenderá cuando volvamos.” Con esto evitas silencios y marcas expectativas.

Guía a la acción: “¿Quieres ver nuestros servicios? Visita la web.” Incluye un enlace y, si tienes catálogo, un atajo directo; así conviertes la duda en avance.

Soporte: “Cuéntanos tu problema y te ayudamos enseguida.” Añade opciones (1. Pedido, 2. Envíos, 3. Pagos) para acelerar el triage y reducir idas y vueltas.

Formas de programar respuestas: WhatsApp Business y WhatsApp API

WhatsApp ofrece dos vías nativas para empezar, con alcance y limitaciones distintas. Lo ideal es seleccionar en función del volumen de mensajes, necesidad de integraciones y nivel de automatización que buscas:

  • WhatsApp Business (app): configuración rápida y sencilla, ideal para mensajes básicos y comercios pequeños. Limitada para escalar.
  • WhatsApp API: la opción profesional para mensajes masivos, chatbots avanzados, integraciones con CRM y orquestación omnicanal.
Pasos para configurar un mensaje automático en WhatsApp Business

En la aplicación de WhatsApp Business puedes activar mensajes de ausencia y bienvenida sin conocimientos técnicos. El flujo típico es: abre la app, entra en Herramientas para la empresa, elige Mensaje de ausencia, activa el envío, edita el texto, programa cuándo se enviará y selecciona los destinatarios.

La programación permite “Enviar siempre”, definir un “Horario personalizado” o “Fuera del horario comercial”. Esto te da control para no molestar en momentos inoportunos y mantener una presencia consistente sin estar conectado.

Si necesitas algo más potente (derivaciones, IA, segmentación, catálogos y reportes), da el salto a la API de WhatsApp a través de un proveedor autorizado. Con la API tendrás chatbots, plantillas, envíos a gran escala y datos para optimizar.

Chatbots con IA en WhatsApp: cuándo y por qué usarlos

Los bots de IA entienden el lenguaje natural y resuelven consultas complejas, no solo FAQs. Son especialmente útiles cuando hay picos de demanda o varios canales en paralelo, ya que mantienen la calidad a gran volumen y están disponibles 24/7.

Frente a los bots de botones, los modelos de IA generativa pueden redactar respuestas naturales, clasificar leads, proponer el siguiente paso e incluso recuperar carritos abandonados si integras tu ecommerce. Lo habitual es combinarlos con flujos guiados para tareas transaccionales y escalar a humano cuando se requiere empatía o negociación.

Tipos de chatbots: árbol de decisión y generativos

Árbol de decisión: guía paso a paso con opciones (1, 2, 3…) hasta la solución. Es robusto, controlable y perfecto para soporte básico, reservas y comprobaciones rápidas. Los generativos utilizan IA para comprender el contexto y generar textos naturales, ideales para dudas abiertas y respuestas personalizadas.

La combinación es ganadora: usa árboles cuando haya procesos cerrados y la IA para preguntas libres. Añade una pasarela clara a agente humano para casos sensibles y cuida la coherencia del tono de marca.

Herramientas y plataformas destacadas

Existen soluciones centradas en WhatsApp y otras omnicanal que integran Instagram, Facebook Messenger, Livechat o Telegram. Varias incluyen CRM, analítica, etiquetado y campañas para que todo quede conectado y no se pierda ninguna conversación.

Tikket: CRM omnicanal con chatbots de árbol y de IA generativa (basados en modelos tipo ChatGPT). Permite centralizar canales, programar respuestas, enviar mensajes masivos, medir en tiempo real, escalar con seguridad y alternar entre bot y agente sin fricción. Útil para soporte y ventas.

ChatSell: chatbot con IA que entiende texto y audio, detecta intención (precio, stock, horarios, pagos) y responde en segundos. Se integra con redes para recuperar carritos abandonados, agendar citas y cargar datos en el CRM con etiquetas y seguimientos. En comparación con flujos más rígidos, aprende del lenguaje real de los clientes.

Zenvia, Manychat y Sirena: ofrecen automatizaciones eficaces basadas en flujos. Son opciones contrastadas para mensajes predefinidos y journeys guiados, aunque la flexibilidad del lenguaje natural puede requerir componentes de IA adicionales según el caso.

B2Chat: solución para unificar WhatsApp, Facebook Messenger, Instagram, Livechat y Telegram en una bandeja única. Optimiza tiempos de respuesta, centraliza la operación y permite llegar al cliente por su canal preferido.

Leadsales: pensado para trabajar WhatsApp con enfoque comercial. Centraliza chats, ordena embudos y complementa la IA nativa de WhatsApp con control de equipo, visibilidad de cada lead y seguimiento oportuno para cerrar más ventas.

Aivo Agentbot: chatbot para WhatsApp orientado a crear flujos conversacionales, entrenar el bot, analizar métricas e integrar apps del negocio. Permite enriquecer interacciones con GIFs, medios y mejorar el autoservicio.

Zendesk (IA y bots): integra WhatsApp en su plataforma de atención y ofrece bots con IA generativa, generador visual de flujos y multidioma. Se puede ajustar el tono para que el bot sea una extensión de la marca. Según su informe CX Trends, el 72% de líderes quiere bots que reflejen identidad y valores de la compañía.

Meta AI en WhatsApp: asistente, generación de imágenes y más

Meta integra un asistente dentro de WhatsApp que se invoca desde la búsqueda o con @Meta AI en grupos. Sirve para resolver dudas, generar respuestas, traducción y crear imágenes sin salir del chat; basta con escribir la petición y esperar unos segundos para recibir el contenido, todo dentro de la misma conversación.

Para probarlo, busca “Meta AI” en la barra de la app y abre un chat. Puedes pedir: “@Meta AI, recomiéndame un restaurante”, “@Meta AI, crea una imagen de un atardecer” o “@Meta AI, edita esta foto”. La disponibilidad se despliega por países e idiomas, por lo que puede no estar activo en todas las cuentas.

La generación de imágenes en el propio chat es útil para crear recursos rápidos (productos, ilustraciones o fondos) describiendo el resultado deseado. Es una forma práctica de preparar contenido para social o catálogo sin cambiar de aplicación y sin frenar la conversación.

Casos de uso: WhatsApp, Instagram y Facebook con IA

Además de WhatsApp, la IA ayuda a captar y responder en Instagram y Facebook, donde puede haber mucho volumen. En Instagram es clave no perder DMs: detecta palabras como “precio”, “envío”, “local” o “pago” para devolver respuestas personalizadas y redirigir a WhatsApp o a la tienda con un toque.

Facebook sigue moviendo consultas, especialmente en públicos mayores. Automatizar en Messenger permite captar leads, responder sin demora, agendar y nutrir el CRM a la vez. En todos los canales se recomienda centralizar, etiquetar y medir para entender qué red aporta más oportunidades.

En ecommerce, los bots con IA pueden detectar carritos abandonados y escribir de forma natural para recuperar ventas, compartir catálogos, enviar links de pago o proponer alternativas de entrega. En servicios, facilitan reservas y recordatorios.

También hay mejoras de seguridad: sistemas de IA ayudan a filtrar spam, detectar comportamientos extraños (envíos masivos sospechosos, patrones de bots) y bloquear contenido de riesgo, lo que protege a clientes y marca.

Cómo implementar un chatbot en WhatsApp Business (vía API)

Para una automatización robusta, crea una cuenta de WhatsApp Business, elige un proveedor autorizado y diseña la lógica conversacional (guía completa para crear un chatbot). El proceso incluye definir objetivos, flujos críticos, tono de marca y qué respuestas serán automáticas y cuáles pasarán a humano.

Tipos de respuestas a configurar: prediseñadas para consultas típicas, basadas en palabras clave para activar contenidos específicos (p. ej., “reembolso”), y respuestas generadas con IA (NLP) para interpretar la intención y adaptarse al contexto.

Construye flujos para onboarding, soporte, ventas, reservas y postventa. Comienza con saludo, detecta el motivo, da opciones o entiende la pregunta abierta, y remata con solución o acción (link, confirmación, ticket). Todo debe quedar medible para iterar con datos.

Personaliza la experiencia con botones, listas, imágenes y documentos. Integra el CRM para que cada conversación cree o actualice contactos, añada etiquetas por interés o canal, dispare recordatorios, campañas o cambios de etapa en el embudo y registre el historial para próximas interacciones.

Antes del go-live, prueba en escenarios reales, ajusta copy y excepciones, define umbrales para escalar a agente y entrena al bot con tu base de conocimiento. Tras el lanzamiento, monitoriza tiempos de respuesta, satisfacción, abandonos, errores y razones de contacto más frecuentes.

Quién se beneficia y qué hace falta para empezar

La automatización con IA encaja especialmente en tiendas online activas en redes, negocios que usan WhatsApp como canal principal de ventas, emprendedores con alto volumen de consultas y agencias que operan cuentas de terceros. Normalmente basta con una cuenta de WhatsApp Business y acceso a Instagram/Facebook; muchos proveedores acompañan la puesta en marcha.

Si te interesa acelerar sin complicaciones técnicas, busca soluciones que conecten redes, CRM y automatización. Lo ideal es que cada conversación cargue el contacto en el CRM, lo etiquete por interés o canal, dispare seguimientos y permita medir de qué red vienen los mejores leads.

“Antes respondíamos todo a mano; ahora el bot gestiona las primeras interacciones y nosotros entramos cuando el cliente ya está listo para decidir”. Esa sensación de alivio operativo y mejor calidad de cierre se repite en comercios minoristas.

“Instagram y Facebook estaban desatendidos; con la IA pasaron a ser una máquina de consultas cualificadas”. Es la diferencia entre perder oportunidades por tiempo y atender con constancia sin ampliar equipo.

Datos de adopción y hábitos de uso

En Latinoamérica, el uso de WhatsApp para hablar con empresas es masivo. En Brasil, según estudios citados, un 77% lo utiliza para consultas e información, un 70% para soporte y un 60% para compras. Esto legitima el canal como punto de contacto principal y refuerza la necesidad de automatizar para escalar sin perder calidad.

Para sacar partido, no subestimes los enlaces directos a WhatsApp (deep links) con mensajes predefinidos: ayudan a iniciar conversaciones desde la web, campañas o redes, capturando intención sin fricción y reduciendo pasos innecesarios.

Casos de éxito con IA en WhatsApp Business

Plum (India): automatizó reclamaciones de seguros de salud por WhatsApp. Los usuarios verifican coberturas, suben documentación y hacen seguimiento. Resultado: tiempos de resolución un 60% más cortos, más de 15.000 clientes activos y cerca del 80% de gestiones por el canal, con unas 400 reclamaciones mensuales procesadas.

Choices (Reino Unido): inmobiliaria que validó prospectos y agendó citas con un chatbot 24/7 para su programa ARO. Logró un 9% más de conversión de leads a citas, más de 230 propietarios interactuando en dos meses y agenda siempre disponible.

FASTA (Sudáfrica): financiera online que lanzó WhatsApp con un FAQ impulsado por IA para soporte autónomo. Obtuvo servicio 24/7, un 20% menos de dependencia de teléfono y email y un incremento de 40x en recaudación tras la puesta en marcha, al ofrecer autoservicio conversacional inmediato.

Preguntas frecuentes rápidas

¿En qué se diferencia un chatbot básico de uno con IA? El básico sigue flujos y respuestas predefinidas; el de IA usa NLP para entender el contexto y responder de forma natural, con capacidad de aprender y adaptarse a nuevas consultas.

¿Para qué sirve integrar CRM con WhatsApp e IA? Centraliza información, personaliza según historial, automatiza recordatorios y segmentaciones, y ofrece una visión completa de embudos y reportes para tomar decisiones con datos.

¿Se puede personalizar por completo la interacción? Sí. Con un CRM y un buen orquestador, ajustas tono, respuestas por segmento, reglas de escalado, horarios, plantillas, catálogos y mensajes según etapa del ciclo de vida, logrando conversaciones relevantes a gran escala.

Buenas prácticas para combinar automatización y trato humano

Define cuándo interviene un agente: pedidos complejos, quejas sensibles o negociaciones merecen una persona. Configura transferencias fluidas, con el contexto a mano, y asegúrate de que el bot informa sobre plazos y expectativas. Así, clientes se sienten acompañados sin perder eficiencia.

Cierra cada flujo con un siguiente paso claro (pago, reserva, guía, artículo), solicita feedback de forma breve y usa métricas para mejorar. Entrena y actualiza la base de conocimiento del bot: productos, políticas, promociones y preguntas frecuentes cambian, y el bot debe reflejar siempre la información vigente.

La automatización bien planteada multiplica tu capacidad de respuesta y ayuda a vender más sin saturar al equipo. Con WhatsApp Business para lo básico, la API para escalar y herramientas como Tikket, ChatSell, B2Chat, Zendesk, Aivo, Manychat o Leadsales, puedes cubrir desde mensajes de cortesía hasta flujos avanzados con IA, integrar CRM y medir todo. El resultado es una atención ágil, disponible y coherente que convierte conversaciones en oportunidades reales.

Transcribe tus audios: La forma más fácil de pasar voz a texto en Android

Actualidad en Androidsis - Vie, 07/11/2025 - 14:29

Cuando piensas en transcribir audio a texto en Android, hoy es posible hacerlo de forma ágil, precisa y con varias capas de funciones extra. Desde herramientas nativas de accesibilidad hasta apps con inteligencia artificial, hay opciones para cada caso de uso y bolsillo, y lo mejor es que muchas funcionan en tiempo real y sin conexión. El objetivo es que conviertas voz y sonidos en texto útil con el menor esfuerzo posible. Puedes probar varias apps para transcribir audios.

En esta guía práctica recopilamos todo lo que necesitas: las funciones de Google integradas en Android, pasos detallados para configurarlas, trucos en móviles plegables, trabajo offline, gestión del historial, y una comparativa de apps populares con sus puntos fuertes y límites. Además, incluimos recomendaciones por tipo de usuario y criterios claros para elegir bien tu próxima app de transcripción. Entre ellas se incluyen herramientas como transcripciones en vivo y subtítulos automáticos integradas en Android.

Qué significa transcribir audio a texto en Android

Transcribir audio a texto es transformar lo que se oye en tu entorno o en una grabación en palabras escritas para leer, editar, buscar o compartir. Es clave en accesibilidad, productividad y creación de contenido. Periodistas, estudiantes, equipos de trabajo y personas con pérdida auditiva se benefician a diario de esta tecnología.

Más allá de “pasar a limpio” una conversación, hoy muchas soluciones identifican sonidos del entorno, distinguen hablantes, añaden puntuación, marcan tiempos e incluso resumen automáticamente con IA. El salto cualitativo reciente viene de la inteligencia artificial y de la integración nativa en Android, y modelos como Gemini facilitan especialmente la transcripción de audios largos.

Opciones nativas de Google en Android: Transcripción instantánea y Notificaciones de sonidos

Google ofrece la app Transcripción instantánea y Notificaciones de sonidos (Live Transcribe & Sound Notifications), pensada para accesibilidad pero útil para cualquiera que necesite texto fiable en tiempo real. Funciona en más de 120 idiomas y variantes, con una interfaz limpia y controles accesibles. También hay desarrollos paralelos como el modo transcribir de Google Translate que amplían las opciones de transcripción en el ecosistema Google.

Entre sus funciones destacan las transcripciones al momento, la posibilidad de añadir palabras personalizadas (nombres propios, tecnicismos), escribir respuestas desde la propia pantalla, vibrar cuando alguien pronuncia tu nombre y soporte para micrófonos externos (cableados, Bluetooth y USB). En plegables, puede mostrar transcripciones y respuestas en la pantalla exterior para facilitar el intercambio.

El módulo de Notificaciones de sonidos detecta sonidos clave como alarmas de humo, llantos de bebé o timbres, admite añadir sonidos personalizados (p. ej., el pitido de un electrodoméstico) y permite revisar un registro de las últimas 12 horas. Es un extra muy útil si te interesa saber qué ha pasado alrededor cuando no estabas mirando el móvil.

Requisitos técnicos y privacidad: requiere Android 12 o superior. En permisos, necesita micrófono para la transcripción y acceso a notificaciones para avisarte de sonidos. Para enlazar micrófonos Bluetooth pide permiso de dispositivos cercanos. Google especifica que el audio no se almacena una vez se procesa la transcripción o el sonido reconocido.

Cómo descargar y activar Transcripción instantánea

Si tu dispositivo no la trae de serie, instálala desde Google Play buscando ‘Transcripción instantánea y Notificaciones de sonidos’. Después, entra en Ajustes del sistema, accede a Accesibilidad y ubica Transcripción instantánea. Comprueba que tienes conexión si aún no has descargado idiomas para el modo sin conexión.

En móviles Pixel y algunos Android compatibles, Transcripción instantánea viene preinstalada: abre Ajustes, entra en Accesibilidad, pulsa Transcripción instantánea y selecciona Abrir. La primera vez, acepta los permisos. Acerca el micrófono a la persona que habla; en la mayoría de móviles está en la parte inferior.

Para iniciarla rápido, configura un atajo de accesibilidad: botón flotante, ajustes rápidos, combinación de teclas de volumen o gesto de deslizar con dos dedos hacia arriba, según tu preferencia. Así arrancarás la transcripción en segundos sin rebuscar iconos.

Además, puedes lanzar Notificaciones de sonidos desde accesibilidad o ajustes rápidos, y alternar entre funciones sin salir de la pantalla principal. Es perfecto si alternas entre escuchar a alguien y monitorizar el entorno.

Uso en plegables y ajustes clave de visualización

En móviles plegables con Android 14 o superior está disponible el modo Pantalla dual: tú y tu interlocutor podréis leer la transcripción en diferentes pantallas del mismo dispositivo. Esto hace que la conversación sea más natural porque ambos veis el texto a la vez. Si además quieres conservar la sesión, puedes grabar la pantalla en Android con audio interno para repasar la conversación más tarde.

En este modo, puedes escribir respuestas (útil en entornos ruidosos) y activar la lectura en voz alta de los mensajes escritos mediante síntesis de voz. También es posible ajustar el tamaño de la fuente en la pantalla exterior para ganar legibilidad al instante.

En este modo, puedes escribir respuestas (útil en entornos ruidosos) y activar la lectura en voz alta de los mensajes escritos mediante síntesis de voz. También es posible ajustar el tamaño de la fuente en la pantalla exterior para ganar legibilidad al instante.

En ajustes podrás cambiar el tamaño de texto con un control deslizante; además, la app admite gestos como pellizcar con dos dedos para ampliar o reducir, o el doble toque de escala rápida. Pequeños detalles que marcan la diferencia cuando lees durante mucho rato.

Si necesitas pausar para releer con calma, activa el botón de Pausa desde Ajustes avanzados y utilízalo cuando te convenga. Así no te pierdes matices ni saltas frases por ir demasiado deprisa.

Transcribir sin conexión, descargar idiomas y gestionar historial

Transcripción instantánea puede funcionar offline con idiomas descargados. En dispositivos con Android 12 o superior (y en todos los Pixel con esa versión), puedes bajar varios idiomas; en ciertos móviles con Android 8 a 11, al menos inglés. Descargar paquetes evita depender de la red y ahorra datos en viajes.

La app prioriza automáticamente el modo sin conexión para que nada se corte; si lo prefieres, en Ajustes avanzados puedes desactivar Transcribir sin conexión y dejar que cambie entre online y offline según la estabilidad de la red. Si lo mantienes activado, utilizará siempre los idiomas locales aunque tengas Internet.

Respecto al historial, puedes optar por guardar las transcripciones hasta 3 días para copiarlas o exportarlas; de lo contrario, se borran a las 24 horas. Por defecto, no se guardan; eres tú quien decide si conservar y por cuánto tiempo.

Para gestionarlo: entra en Ajustes y activa o desactiva el Historial. Para borrar, ve a Más ajustes y pulsa Eliminar historial. Para exportar todas las transcripciones almacenadas, usa la opción correspondiente en Ajustes. También puedes copiar fragmentos manteniendo pulsado el texto o seleccionar todo y copiar de una vez.

La app cifra de forma segura audio y transcripciones, que se almacenan temporalmente en la propia aplicación. Un buen equilibrio entre utilidad y protección de la información sensible.

Consejos prácticos y funciones que te ahorran tiempo

Si no puedes hablar o prefieres escribir, pulsa en Escribir para redactar tu respuesta mientras la otra persona te habla; luego vuelve a pantalla completa. Ideal para bibliotecas, transporte público o reuniones donde quieres discreción.

Para limpiar la pantalla de un vistazo, desliza hacia arriba; si necesitas retomar el hilo, desliza hacia abajo para traer de vuelta el contenido. Gesto sencillo pero muy útil para evitar distracciones mientras sigues la conversación.

¿Demasiadas onomatopeyas y sonidos ambientales? En Más ajustes puedes activar o desactivar las indicaciones de sonidos no verbales como risas, timbres o música. Si solo te interesa la voz, deja esos indicadores ocultos; si necesitas contexto, actívalos.

¿Tu nombre es clave? Activa Vibrar cuando se diga un nombre y añade los términos que quieres “escuchar”. Así sabrás al instante cuándo te llaman, incluso con el móvil en silencio.

La precisión mejora si enseñas a la app: añade palabras personalizadas (nombres de proyectos, siglas o jerga) para que se reconozcan tal cual. En ámbitos técnicos esta lista marca la diferencia.

¿Trabajas con varios idiomas? Define un idioma principal y uno secundario, y cambia rápidamente tocando el indicador de idioma en la parte inferior de la pantalla. Perfecto para entrevistas bilingües o reuniones con participantes internacionales.

Si usas micro externo, conéctalo y elige el dispositivo desde Ajustes > Micrófono. Los micrófonos dedicados suelen reducir ruido y mejoran notablemente la captación. Para elegir equipo y grabadoras de calidad, consulta recomendaciones sobre grabadoras de sonido para Android.

Permisos, requisitos y soporte de Google

La app requiere Android 12 o superior. Pide permiso de micrófono para transcribir, notificaciones para avisarte de sonidos y dispositivos cercanos para usar micrófonos Bluetooth. Google indica que el audio no se conserva tras procesarlo, una garantía importante para tu privacidad.

Fue desarrollada en colaboración con la Universidad de Gallaudet, referencia mundial en comunidad sorda y con pérdida auditiva. Hay foros y canales de ayuda oficiales para dudas y sugerencias en las páginas de Google Accessibilidad.

Ten en cuenta que Google no prevé su uso con obligaciones bajo HIPAA ni garantiza su cumplimiento de esta normativa sanitaria de EE. UU. Si manejas datos clínicos, valora alternativas y políticas específicas.

Transcribir audios de WhatsApp en Android

WhatsApp ya integra transcripción nativa de notas de voz. Cuando recibes o te envías un audio, aparece la opción para convertirlo a texto, que puedes activar desde los ajustes del audio en la app. Es muy práctico para revisar contenidos largos sin tener que escucharlos enteros. Más detalle sobre la transcripción nativa de notas de voz en WhatsApp.

Las mejores aplicaciones de audio a texto para Android

Según múltiples referencias contrastadas, estas son las opciones más destacadas por función, tipo de uso y modelo de precio. Incluimos sus ventajas, planes gratuitos si los hay y límites habituales.

Google Recorder: grabadora integrada en varios Pixel con transcripción offline muy fiable, perfecta en vuelos o metro. No requiere suscripción. Si tu móvil la incluye, es un imprescindible por su calidad sin conexión.

Transkriptor: asistente de IA con chat sobre transcripciones, resúmenes, importación de audio y vídeo, exportación en PDF/DOCX/TXT/SRT, identificación de hablantes, organización con IA y soporte de más de 40 idiomas. En un listado se indica plan gratuito con 90 minutos para probar; en otros, se menciona que no tiene plan gratis y empieza con suscripciones asequibles. Revisa la oferta vigente porque puede variar según promoción.

Otter.ai: notas en tiempo real, identificación de interlocutores, resúmenes con IA y colaboración. Plan gratuito con hasta 300 minutos mensuales y límite por conversación; opciones de pago amplían minutos y funciones. Muy popular en reuniones y entrevistas en equipo.

Notta: destaca por transcripción bilingüe y continuidad entre dispositivos. Plan gratuito con minutos limitados por sesión, de utilidad reducida si excede tus necesidades por conversación; planes de pago amplían uso. En entornos multilingües puede ser un salvavidas.

Speechnotes: ideal para dictado continuo sin cortar durante pausas; muy útil offline. La versión gratuita muestra anuncios y su soporte multilingüe no es tan sólido, castigando la experiencia si no usas inglés. Como bloc de dictado, funciona muy bien.

Rev y Rev Voice Recorder: servicios de transcripción de alta precisión con red de transcriptores humanos, adecuados para sectores que requieren privacidad y exactitud (p. ej., legal). Ofrecen también subtítulos, traducción y planes profesionales. Excelente calidad a cambio de coste por minuto. Si además necesitas grabar llamadas, revisa las apps más confiables para grabar llamadas.

Stenote: interfaz muy simple y planes flexibles. Adecuada para uso ligero, con prueba y múltiples modalidades de suscripción. Si buscas algo directo para tareas básicas, encaja.

MeetGeek: integra con las principales plataformas de videollamadas y genera resúmenes con IA. Tiene plan gratuito con límite de horas y retención de contenidos en la nube por tiempo acotado. Buena opción para productividad en reuniones.

Voiser AI: maneja voz a texto y texto a voz en una sola app. Modelo de pago por bloques de tiempo de transcripción. Útil si necesitas ida y vuelta entre habla y texto.

ListenAll: app en español para Android e iOS que transcribe mientras hablas, permite cambiar diseño de notas y exportar a otros servicios. Ha incorporado importación de audios de otras apps. Interfaz limpia y enfocada a productividad básica.

Gboard: el teclado de Google integra dictado por voz, lo que permite transcribir sobre cualquier app del móvil. Funciona en español y es ubicuo. Para dictados rápidos sin salir de tu flujo de trabajo.

Google Docs: escritura por voz dentro del editor. Gratuito y compatible con muchos idiomas, pero menos adecuado para sesiones largas y con puntuación automática irregular. Como recurso universal, puede sacarte de un apuro.

Microsoft Speech to Text: demo gratuita en la web de Azure que permite hablar o subir audios para probar el servicio con puntuación automática. Buena demostración para pequeñas pruebas sin registro.

Whisper: modelo de código abierto con una web minimalista para cargar audios, seleccionar modelo e idioma y obtener transcripción o traducción. Interesante si te atrae el mundo open source.

Bear File Converter: servicio sencillo para convertir MP3 (también WAV, WMV y OGG) a texto con límite de tamaño pequeño. Útil para archivos cortos y conversiones puntuales.

Dictation (web): pensado para dictar con comandos de formato y visualizar resultados en una hoja con opciones de edición y guardado. No requiere registro y resulta muy accesible.

SpeechLogger: usa reconocimiento de voz de Google, permite subir audios con cuenta y exportar a Drive, DOC o TXT, además de SRT. Flexible para subtítulos y flujo con Google.

SpeechTexter: dictado con guía de puntuación en pantalla y opciones básicas de formato; puede guardar en caché del navegador. Sencilla, práctica y con soporte multilingüe.

TalkTyper: herramienta muy simple para dictados en español, con opciones de copiar, imprimir o enviar. Lo mínimo para resolver rápido.

Watson Speech to Text (IBM): transcripción con soporte de varios idiomas, incluso en audios de calidad media-baja; modalidad gratuita con paquete de minutos y modelos preentrenados. En entornos corporativos, una alternativa consolidada.

Voice Notebook: dictado en multitud de idiomas con exportación a TXT y botones de puntuación. También ofrece extensión para Chrome y webapp. Multiplataforma y muy directa.

Riverside: orientada a podcasters y creadores, con grabación local de alta calidad y transcripción integrada. Basada en suscripción. Piensa en ella si publicas audio/vídeo con frecuencia.

Speechify: pensada para texto a voz y viceversa, con funciones útiles para transcripción y accesibilidad. Versátil si alternas lectura y dictado.

Trint: transcripción con IA más edición colaborativa, identificación automática de hablantes, búsqueda de palabras clave y soporte para varios idiomas. Muy potente para equipos y proyectos multimedia.

Temi: transcripción rápida y automática con prueba gratuita limitada. Para validar resultados sin mover mucho presupuesto.

Voz: app simple y gratuita para convertir voz en texto con interfaz limpia. Una solución directa sin complicaciones.

Voicea: asistente que transcribe conversaciones y añade funciones de productividad. Si buscas algo más que “solo transcribir”, tiene sentido.

iRecord: grabadora y transcriptor con soporte para varios idiomas en Android e iOS. Todo en uno, útil para llevarlo siempre encima.

Notas de voz de iOS y Apple Dictation: en el entorno Apple, ya es posible transcribir grabaciones con la IA integrada y usar dictado nativo. Si trabajas cruzando plataformas, conviene conocerlo.

Windows: el sistema de Microsoft incluye Reconocimiento de voz para dictar en cualquier app tras una breve configuración inicial. Buena opción si alternas móvil y PC.

PinPoint (Google News Initiative): convierte audio en texto editable y permite buscar términos clave, reconocer entidades y acelerar análisis de entrevistas. Diseñado pensando en periodistas e investigadores.

Sonix: transcriptor de alta precisión con más de 40 idiomas y análisis de IA; es solo de pago. Potente si tu prioridad es la exactitud profesional.

Clipto AI: transcribe audio y vídeo con identificación de hablantes, editor en línea y herramientas de búsqueda y resaltado. Optimiza la revisión cuando manejas grandes volúmenes.

Flixier: editor de vídeo con transcripción y subtítulos automáticos en varios idiomas, personalización de estilo y plan freemium con exportación limitada. Excelente para creadores de contenido social.

Tactiq: genera información accionable de reuniones, resúmenes y registro de acuerdos; los usuarios destacan su utilidad en conversaciones multidioma. Si tus dolores están en las reuniones, merece un vistazo.

Modelos de IA generales (ChatGPT, Copilot, Gemini): permiten transcribir, pero habitualmente esta capacidad queda en planes de pago. Tenlo en cuenta si ya pagas alguno por otros motivos.

Aplicaciones gratuitas o de pago: ¿qué escoger?

Las gratuitas como Google Recorder o Speechnotes resultan perfectas para lo básico: dictados, apuntes rápidos o clases. Si tus necesidades son esporádicas, probablemente no necesites más.

Las de pago (Otter, Rev, Trint, MeetGeek, etc.) suman precisión superior, etiquetado de hablantes, sincronización en la nube, colaboración y soporte. Las funciones avanzadas de IA, como resúmenes o análisis, suelen requerir suscripción.

Preguntas frecuentes

¿Puedo transcribir sin conexión? Sí. Google Recorder funciona offline y Transcripción instantánea permite descargar idiomas para uso sin red. Comprueba la compatibilidad de tu dispositivo y versión de Android.

¿Cuál es la mejor app gratuita? Depende totalmente de tus necesidades concretas: volumen mensual, idiomas, si quieres distinguir hablantes o si basta con dictados rápidos. Prueba un par y decide en función de tu flujo de trabajo.

¿Son seguras? La mayoría lo son, pero conviene revisar su política de privacidad y cifrado. Rev y Otter, por ejemplo, ponen foco en la protección de datos. Si manejas material sensible, prioriza servicios con garantías claras.

¿Hay soporte multilingüe? Sí, muchas lo ofrecen. SoundType y Notta, por ejemplo, destacan por sus capacidades multidioma. Verifica que tu combinación de idiomas esté soportada.

Criterios para elegir bien tu app de transcripción

Valora ante todo la precisión en los idiomas que usas, especialmente con acentos o ruido de fondo. Una prueba con tus propios audios te dará la foto real.

Considera la posibilidad de personalizar ajustes: accesos directos, puntuación, palabras propias y formato de salida. Cuanto más se adapte a ti, menos tiempo perderás corrigiendo.

Comprueba el soporte de formatos de archivo, integración en la nube y exportaciones (TXT, DOCX, PDF, SRT). Si luego vas a subtitular, SRT te ahorrará trabajo.

Evalúa la interfaz y experiencia de uso: que sea clara, que no te esconda funciones clave y que te permita trabajar sin fricciones. Una app usable te ahorra más de lo que parece.

Mira bien el precio y el soporte: planes, límites, retención en la nube y atención al cliente. Si vas en serio con esto, el soporte marca la diferencia.

Cómo convertir un archivo de audio a texto paso a paso con Filmora

Filmora, además de editar vídeo, integra IA para transcribir y generar subtítulos con alta precisión, soporte de decenas de idiomas y plantillas animadas de subtítulos. Incluso permite traducir subtítulos a múltiples idiomas y exportar SRT.

Paso a paso: descarga la app actualizada, importa el archivo de audio o vídeo, arrástralo a la línea de tiempo, abre la herramienta de transcripción automática, inicia el proceso y revisa el texto resultante para afinar. Después, exporta el texto o intégralo como subtítulos en tu proyecto.

La transcripción con IA de Filmora acelera la creación de subtítulos y notas, muy útil si publicas en redes o necesitas documentación de reuniones. Su combinación de precisión, idiomas soportados y edición integrada reduce mucho el tiempo total.

Hoy tienes a tu alcance un abanico de soluciones para Android que cubren desde dictados ultrarrápidos hasta flujos profesionales con etiquetado de hablantes, resúmenes de IA, subtitulado y colaboración en equipo. Da igual si tu prioridad es la accesibilidad, la productividad o la edición de contenido: hay una herramienta para cada escenario y presupuesto.

Había dos formas de hacer la nueva intro de Apple TV: una barata y rápida. Otra mucho más cara y artesanal. Adivina cuál eligió Apple

Actualidad en Applesfera - Vie, 07/11/2025 - 14:00

La nueva intro de Apple TV parece la cumbre de los efectos digitales. Capas de luz coloreada moviéndose, transparencias... Muchos pensamos "otro logo más generado por ordenador como tantos otros". Acostumbrados al nivel de producción de Apple en sus Keynote, hemos visto producciones mucho mayores como Fórmulas 1 corriendo por el techo del Apple Park. Pero faltaba una parte de la historia por conocer.

La realidad es que Apple no ha generado nada por ordenador. Detrás de esos segundos donde vemos el logo de Apple en cristal y varios colores, hay de verdad cristal. Iluminación física y una cámara apuntando. Porque esto es Apple: cuando todo el mundo elegiría Cinema 4D y haría la animación en una tarde, ellos eligieron la ruta más cara, más complicada y más artesanal posible. Casi como Steve Jobs predicó con la importancia de que todo fuese igual de bonito y cuidado por dentro como por fuera.

El por qué detrás de la locura

Cualquier estudio de motion graphics habría generado esa intro en horas. Pero Apple trabajó con dos estudios para construir versiones físicas del logo en cristal, manipularlas bajo luces y capturar todo en cámara.

{"videoId":"x9tdbqi","autoplay":true,"title":"Apple TV creación intro", "tag":"", "duration":"33"}

Hay tres versiones diferentes según dónde veas la intro. La de cinco segundos es la que escucharás antes de cada episodio de series. Una versión minimalista de un segundo para los tráilers de películas. Y luego está la de doce segundos, la que proyectarán en cines antes de las películas originales de Apple Studios.

Tor Myhren, de marketing de Apple, dijo que ellos seguirán valorando la artesanía humana incluso mientras abrazan herramientas de IA. Ahora, en la nueva etapa que se inicia en Apple TV, quitando el "+", crean una intro que literalmente está hecha de materia física. Y sí, recuerda mucho a Liquid Glass.

Es la opción que exigía más dinero, más tiempo, más coordinación. La opción que cualquier empresa racional habría rechazado en una reunión. La que Apple eligió porque, para ellos, la forma en que haces algo es casi tan importante como lo que haces.

En el vídeo vemos cómo colocan sobre unos soportes de cristal el logo de Apple TV. Después, una cámara con un objetivo muy largo (macro) recorre el logo de dentro hacia afuera.

La iluminación trasera la cambian y repiten la toma una y otra vez con un color diferente para luego hacer la mezcla. Además, el soporte gira, dando así pie al inicio del logo, donde vemos cómo la manzana pasa varias veces de un color a otro hasta quedarse el logo en blanco.

Esta creación, que ha requerido equipo técnico y hasta robots para mover la cámara de forma controlada y siempre con el mismo movimiento, se suma a la elección del productor de Billie Eilish (ganador de Grammys y Oscars) para generar el sonido que acompaña la intro.

Apple TV está apostando fuerte. Cambio de nombre, cambio de intro, nueva identidad visual y estrenos tan esperados como Pluribus, del creador de Breaking Bad, que ya está disponible para disfrutarla.

Apple es Apple. Pudieron hacer esto en Cinema 4D en una tarde. En su lugar, eligieron lo más difícil. Gastando dinero en lo que nadie más gastaría, porque lo que importa es cómo se hace y estar orgulloso del camino elegido.

En Applesfera | Apple TV y sus estrenos: las próximas series, películas y documentales que veremos en su catálogo

En Applesfera | Las 19 mejores películas de Apple TV según la crítica y cómo verlas sin pagar un solo euro


(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia Había dos formas de hacer la nueva intro de Apple TV: una barata y rápida. Otra mucho más cara y artesanal. Adivina cuál eligió Apple fue publicada originalmente en Applesfera por Guille Lomener .

El iPhone 16 se desploma de precio por sorpresa: no esperes al Black Friday para hacerte con él

Actualidad en Applesfera - Vie, 07/11/2025 - 12:30

No es común que los iPhone bajen de precio, especialmente cuando se trata de sus modelos más recientes, pero de vez en cuando aparecen ofertas que realmente merecen la pena. En esta ocasión, Power Planet sorprende con un descuento muy tentador en el iPhone 16 de 128 GB, que ahora puedes conseguirlo por solo 709 euros. Una cifra difícil de encontrar tratándose de un dispositivo más reciente, con toda la potencia del chip A18 Bionic y las mejoras que Apple ha introducido en pantalla y cámara. 

Un móvil con potencia, diseño y cámara de última generación

El iPhone 16 se presenta como una opción muy equilibrada dentro de la nueva generación de smartphones de Apple, especialmente si buscas potencia, diseño y prestaciones sin dar el salto a los modelos Pro. Su pantalla OLED de 6,1 pulgadas ofrece una buena calidad de imagen, con resolución 2.556 x 1.179 píxeles, compatibilidad con HDR y un brillo máximo de 2.000 nits que permite ver el contenido con claridad incluso bajo la luz del sol.

{"videoId":"x95eu3a","autoplay":true,"title":"Introducing iPhone 16 Apple", "tag":"", "duration":"119"}

En su interior se encuentra el chip A18, capaz de ofrecer un rendimiento fluido en cualquier tarea, desde juegos exigentes hasta edición de vídeo, y además compatible con Apple Intelligence, la nueva inteligencia artificial de la marca. A ello se suman detalles que hacen la experiencia más completa, como la carga inalámbrica MagSafe, el práctico botón de acción y la certificación IP68 que lo protege frente al agua y el polvo.

En el apartado fotográfico, cuenta con una cámara principal de 48 MP junto al sensor ultra gran angular de 12 MP, que consiguen capturar imágenes con gran detalle y colores fieles, mientras que la cámara frontal de 12 MP ofrece retratos y videollamadas de calidad. Además, incorpora el nuevo botón de control de cámara, una de las funciones más prácticas que Apple ha introducido en esta generación.

Otros iPhone que puedes conseguir ahora rebajados

Si este modelo de iPhone no encaja exactamente con lo que estás buscando, puedes echarle un vistazo a esta pequeña lista con otros modelos interesantes, donde encontrarás precios más variados. 

Apple iPhone 17 (256GB), dejando su precio a 959 euros, pero si entregas otro dispositivo de Apple te puede salir más barato

iPhone 16 Plus (128GB), dejando su precio a 859 euros

iPhone Air (256GB), dejando su precio a 1.099 euros

iPhone 15 (128 GB), dejando su precio a 659 euros

iPhone 16e (128 GB), dejando su precio a 599 euros

En Xataka Smart Home Mañana llega a Lidl este enchufe con temporizador por menos de 8 euros: ideal para ahorrar en la factura de la luz cada mes Accesorios para tu iPhone 16

Algunos de los enlaces de este artículo son afiliados y pueden reportar un beneficio económico a Applesfera. En caso de no disponibilidad, las ofertas pueden variar.

Imágenes | Pedro Aznar de Applesfera y Apple

En Applesfera | Qué iPhone comprar en 2025. Guía para elegir el smartphone de Apple más adecuado para ti

En Applesfera | Mejores accesorios Magsafe para tu iPhone

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia El iPhone 16 se desploma de precio por sorpresa: no esperes al Black Friday para hacerte con él fue publicada originalmente en Applesfera por Álvaro Núñez .

Adelanta un mes al resto: ya puedes instalar iOS 26.2 y probar funciones tan esperadas como la traducción de los AirPods

Actualidad en Applesfera - Vie, 07/11/2025 - 11:47

La próxima gran actualización de tu iPhone llegará en diciembre, pero tú ya puedes tenerla. La beta pública de iOS 26.2 ya está disponible y trae lo que muchos llevábamos más de un mes esperando: la traducción en tiempo real con los AirPods, disponible por fin en España y en toda la Unión Europea.

Pero no solo se queda ahí: en iOS 26.2 también hay algunos cambios, como las alarmas de Recordatorios o una mayor (sí, aún más) personalización del acabado de Liquid Glass. Todo esto llegará el mes que viene, pero puedes adelantarte gracias al programa de betas públicas de Apple. Una ventana al futuro de iOS, hoy.

La traducción con AirPods está aquí y funciona en español

Apple ya lanzó la traducción en tiempo real con AirPods, pero en Europa tuvimos que esperar más que el resto por los requisitos de la Ley de Mercados Digitales. Con iOS 26.2 la espera se acaba. Nosotros ya la hemos probado y funciona con los AirPods Pro 3, los AirPods Pro 2 y los AirPods 4 con cancelación activa de ruido. Eso sí, necesitarás también un iPhone compatible con Apple Intelligence.

Otras novedades que llegan con iOS 26.2

Más allá de la traducción, iOS 26.2 trae más cambios que mejoran la experiencia diaria con el iPhone.

Liquid Glass de la pantalla de bloqueo ahora es más personalizable: hay un nivel que te permite ajustar el porcentaje de transparencia del reloj, desde casi invisible hasta completamente opaco.

Apple ha retocado los rangos de la puntuación del sueño. Ahora los números reflejan mejor cómo te sientes realmente después de dormir. Las categorías van desde "Muy bajo" (0-40) hasta "Muy alto" (96-100), y han eliminado la etiqueta "Excelente", que antes coronaba los mejores resultados.

En Recordatorios llega algo que alegrará a muchos: la opción de activar una alarma cuando vence un recordatorio. Si marcas uno como "urgente", el iPhone lanza una alerta, como si se tratase de un despertador.

Podcasts ahora genera capítulos automáticamente, y la app Freeform añade la posibilidad de crear tablas. Aunque todavía no está activa, el código de iOS 26.2 incluye referencias a una mejora de AirDrop: podrás vincular dos dispositivos con un PIN para mantener la conexión abierta durante 30 días, sin el límite actual de 10 minutos para contactos no guardados.

{"videoId":"x9sv38g","autoplay":true,"title":"1 MES DE USO REAL con el iPHONE 17 PRO MAX: Yo al iPhone le pido MÁS", "tag":"Webedia-prod", "duration":"1146"}

Cómo instalar la beta pública en tu iPhone

Si quieres probar iOS 26.2 ahora mismo, el proceso es bastante directo:

  1. Entra en beta.apple.com desde Safari en tu iPhone.
  2. Regístrate en el programa de betas públicas de Apple.
  3. Después, ve a Ajustes > General > Actualización de software. Toca en "Actualizaciones beta" y selecciona "Beta pública". A partir de ahí, la actualización de iOS 26.2 aparecerá disponible para descargar e instalar como cualquier otra actualización del sistema.

Eso sí, recuerda que es una beta. Aunque suelen ser bastante estables a estas alturas, pueden aparecer errores puntuales o comportamientos extraños en algunas apps. Apple tiene previsto lanzar la versión definitiva de iOS 26.2 en diciembre. Pero si eres de los que prefieren ir un paso por delante y probar las novedades antes que nadie, la beta pública ya está lista para ti.

En Applesfera | Cómo instalar una beta de iOS 26.2 en el iPhone: paso a paso para hacerlo de una manera segura y oficial

En Applesfera | Nuevo iOS 27 - todo lo que creemos saber sobre el futuro sistema operativo para el iPhone

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia Adelanta un mes al resto: ya puedes instalar iOS 26.2 y probar funciones tan esperadas como la traducción de los AirPods fue publicada originalmente en Applesfera por Guille Lomener .

Steve Jobs pagaba a todo su equipo directivo para que le llevase la contraria. Así lo explicó hace 33 años

Actualidad en Applesfera - Vie, 07/11/2025 - 10:30

Cualquiera que trabaje en un puesto de responsabilidad lo sabe bien: no basta con hacer cosas correctamente. El reto es tomar las decisiones adecuadas, las que marcan el rumbo de un equipo o una empresa. Y eso es más complicado de lo que parece, porque decidir bien implica varias cosas a la vez: tener información, confiar en tu intuición, pero también en la gente que te rodea. 

Steve Jobs lo tenía clarísimo, y no solo como CEO en Apple. Allá por 1992, mientras estaba metido en la aventura de NeXT, dio una charla en MIT sobre gestión empresarial y toma de decisiones. Fue una conversación de casi 72 minutos donde explicó cómo pensaba que debería funcionar un equipo directivo. Y lo interesante es que esa lección sigue siendo absolutamente válida hoy.

El núcleo de su filosofía: para qué pagas realmente

En esa charla de MIT, Steve Jobs lo dejó bastante claro con una frase que resume su pensamiento completo: no pagas a gente para que haga lo que tú le dices que haga. Pagas a gente para que te diga qué debería hacerse.

Steve Jobs en su charla del MIT de 1992

Jobs explicaba por qué pensaba así, con una lógica que tiene bastante sentido cuando lo escuchas.

Nunca había creído en eso de que si estáis en el mismo equipo directivo y decidís diferente sobre algo, entonces uno tiene que convencer al otro para que cambiar de opinión. Porque mira, cuando haces eso estás pagándole a alguien para que haga lo que cree que es correcto, y luego le intentas convencer para que haga lo que no cree que sea correcto. Tarde o temprano acaba estallando un conflicto.

La alternativa, según su experiencia, era reunir a todos los involucrados en una sala y debatirlo todo hasta llegar a un acuerdo. Y aquí es importante aclarar que no hablaba de una democracia total donde todo el mundo vota y punto. Hablaba de reunir a los que realmente tenían que ejecutar esa decisión, a los expertos en esa área, y trabajar juntos hasta que todo el mundo viera las cosas de la misma manera. O al menos, hasta que todo el mundo pudiera estar de acuerdo en seguir adelante.

{"videoId":"x8n36l7","autoplay":true,"title":"Entrevista perdida Steve Jobs", "tag":"Steve Jobs", "duration":"3976"}

Cómo lo aplicaba en NeXT: selectividad radical

En NeXT, Steve Jobs no dejaba esto al azar. Tenían un "Equipo de Normativa" de ocho personas que se encargaba de tomar las decisiones más importantes de la empresa. Pero lo crucial aquí era que no lo debatían todo. Diferenciaban entre las decisiones que importaban y el ruido del día a día, todas esas cosas menores que no necesitaban pasar por ese proceso largo.

Podemos tener unas 25 cosas sobre las que decidir en un año, no son muchas. 

En lugar de estar todo el día discutiendo cosas, se enfocaban en esas 25 decisiones críticas, y en esas sí, trabajaban hasta estar de acuerdo. No era una falta de decisión ni un consenso eterno. Era selectividad radical. Sabían exactamente cuáles eran los momentos que importaban.

Lo que Steve Jobs repetía constantemente era algo que hoy muchos líderes siguen sin entender:

 Pagamos un montón de dinero a la gente y esperamos que nos digan qué es lo que deberíamos hacer. No deberías hacer ciertas cosas si hay gente que no está de acuerdo con ello.

 Y la gente que él contrataba no estaba ahí para decir "sí, jefe", sino para pensar, para proponer, para estar en desacuerdo si lo creían necesario.

El aprendizaje de Apple que llevó a NeXT

Uno de los otros aprendizajes que Steve Jobs compartió en esa charla de MIT venía de su tiempo en Apple, de esos años antes de ser forzado a irse. Había aprendido a cambiar cómo se relacionaba con los errores. En lugar de su reacción natural, que era ir y arreglarlo todo cuando veía algo que no estaba bien, decidió adoptar una perspectiva más a largo plazo.

Cuando veo algo que no se está haciendo bien, mi primer instinto no es arreglarlo. Es decir, estamos construyendo un equipo que va a hacer cosas grandes durante la próxima década, no solo este año.

Y eso requería paciencia, porque significaba que a veces el equipo tendría que aprender de sus propios errores, y eso dolía. Pero a largo plazo, creía que era lo correcto.

Lo que quedó claro de aquella charla de 1992 es que el verdadero trabajo de quien dirige no es decir qué hay que hacer. Es rodarse de gente que sepa pensar, confiar en su criterio, y luego tener el coraje de escuchar incluso cuando lo que te dicen no es exactamente lo que esperabas oír.

En Applesfera | Los 11 libros que enseñaron a Steve Jobs a liderar y convertir a Apple en la empresa que es hoy

En Applesfera | Nuevo iPhone plegable - Todo lo que creemos saber sobre él

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia Steve Jobs pagaba a todo su equipo directivo para que le llevase la contraria. Así lo explicó hace 33 años fue publicada originalmente en Applesfera por Miguel López .

Cómo generar mis propios fondos de pantalla con IA en tu Android

Actualidad en Androidsis - Jue, 06/11/2025 - 18:48

¿Has pensado alguna vez en tener fondos de pantalla que sea totalmente tuyo, hecho a partir de una idea que solo está en tu cabeza? Hoy es más fácil que nunca gracias a la inteligencia artificial, que convierte descripciones en imágenes listas para usar en segundos. Ya sea para el móvil o para el ordenador, existen opciones para todos los gustos, desde funciones integradas en Android hasta generadores en la web. En ambos casos, la IA pone a tu alcance resultados creativos sin que necesites saber diseñar.

Además, si tienes un teléfono con Android 14, en algunos modelos encontrarás una función nativa para crear wallpapers con IA sin instalar nada extra. Y si tu móvil no es compatible o prefieres trastear con más estilos, hay herramientas gratuitas en línea que ofrecen resultados de calidad. Lo mejor es que, con unos pocos ajustes y buenos prompts, puedes lograr imágenes que encajen como un guante en tu pantalla y que nadie más tendrá.

¿Por qué compensa crear fondos de pantalla con IA?

Las herramientas de imagen generativa han democratizado el diseño, permitiéndote partir de una simple idea y convertirla en una imagen lista para tu pantalla. Una de las mayores ventajas es la creatividad sin límites: con una frase bien redactada puedes cambiar estilos, escenas y conceptos sin esfuerzo, y recibir variantes para quedarte con lo que de verdad te inspira.

Otra ventaja importante es la facilidad de uso. Muchas plataformas están pensadas para usuarios de todos los niveles, con asistente paso a paso, preajustes y controles sencillos. En la práctica esto significa crear fondos en pocos clics, sin pelearte con menús complicados ni tener que aprender edición avanzada.

Por último, la accesibilidad es clave: al estar disponibles en la web, puedes generar imágenes desde el móvil, la tablet o el ordenador, cuando y donde quieras. Esto abre la puerta a que cualquier persona pueda diseñar, y a que la personalización de tu dispositivo sea algo rápido, barato y divertido.

Generadores de IA para tu PC: opciones que funcionan de verdad

Si quieres crear wallpapers desde el ordenador, hay varias herramientas consolidadas que generan imágenes de gran calidad a partir de un texto. Algunas son de pago, pero hay alternativas gratuitas muy potentes. Empezamos con un clásico: DALL·E, el motor de OpenAI. Su versión más reciente, DALL·E 3, interpreta prompt complejos con mucho detalle y genera varias propuestas por cada petición. Además, OpenAI ha añadido edición guiada para retocar zonas concretas con instrucciones conversacionales.

VEED.io es otra propuesta interesante si lo que quieres es texto a imagen sin complicarte la vida. Con una descripción breve, recibes cuatro opciones y puedes volver a generar sin coste si no te convence el resultado. La interfaz es limpia, los estilos están a mano y se agradece poder iterar tantas veces como haga falta, ya que las reintentos no penalizan tu flujo creativo.

Si prefieres mezclar y evolucionar imágenes, Artbreeder ofrece una aproximación colaborativa muy particular. Permite combinar fotos, ajustar deslizadores para rasgos y estilos, o partir de texto con su función Compositor. Es ideal para experimentar y ver cómo pequeños cambios producen variantes sorprendentes; al final, acabas con una imagen única ajustada a tu gusto y con control fino sobre rasgos y atmósferas.

Runway ML destaca por su abanico de funciones creativas y por permitir configuraciones detalladas. Puedes generar imágenes desde descripciones, elegir estilos predefinidos y ajustar resolución, peso del archivo o el número de resultados en cada tanda (de 1 a 100). Esta flexibilidad te permite decidir si quieres un lote masivo para explorar o pocas propuestas muy enfocadas.

Aplicaciones móviles de IA para crear wallpapers

Si te apetece generar imágenes directamente desde el teléfono, hay apps que lo ponen facilísimo. Deep Dream Generator, por ejemplo, apuesta por estilos artísticos y abstractos. Con una red neuronal entrenada en millones de imágenes, es capaz de transformar una foto o un texto en una obra y crear arte con IA desde tu Android. Puedes elegir categorías como animales o paisajes, y previsualizar el resultado antes de descargar.

GoArt convierte tus fotos en arte con motores basados en GAN y redes neuronales y te permite transformar tus fotos y videos con la IA. Tiene filtros que evolucionan según el contenido y estilos como pixel art o pintura clásica. La dinámica es simple: subes la imagen, eliges el estilo y en un clic obtienes una versión artística. Esto la hace ideal para tomar una foto que ya te guste y darle un giro estético para que se convierta en fondos de pantalla muy resultón.

El generador de imágenes de Canva encaja perfecto si quieres crear tanto wallpapers como diseños para redes sociales, anuncios o folletos. Describes lo que necesitas y la IA produce imágenes al instante, listas para combinar con plantillas o textos. Lo mejor es olvidarte de bancos de imágenes genéricos; con esta función, das vida a ideas originales que encajan de verdad con tu estilo.

WOMBO ofrece resultados rápidos con estilos artísticos variados. La versión gratuita genera una imagen por prompt, con opciones de estilo como realista, místico o fantasía oscura, mientras que la versión de pago quita anuncios, acelera el proceso y crea hasta cuatro resultados a la vez. Si buscas algo inmediato y vistoso, es una app estupenda para experimentar sin complicaciones.

Fondos de pantalla con IA integrada en Android 14

Android 14 ha introducido una función nativa de wallpapers generados por IA en determinados móviles, principalmente en la familia Google Pixel. La idea es entrar en personalización como harías siempre, mantener pulsado en la pantalla de inicio, entrar en Fondos de pantalla y estilo, y desde ahí acceder a la sección de más fondos. Dentro, verás la opción específica para IA; eliges un tema, cambias atributos tocando en palabras destacadas y pulsas en crear para que el sistema fabrique varias propuestas. Es muy directo, y al terminar puedes moverte entre las imágenes creadas hasta elegir tu favorita.

Conviene tener en cuenta que la función está algo acotada ahora mismo: se basa en temas predefinidos por Google y no acepta cualquier idea libre como haría un generador independiente. Aun así, tener un fondo exclusivo producido por el propio sistema es una pasada, porque garantiza encaje perfecto con la estética del teléfono y una integración sin esfuerzo.

En los modelos más recientes, como Pixel 9 y Pixel 9 Pro XL, la integración entre Android y Gemini va aún más allá, con asistentes que te guían para describir la imagen y un flujo con sugerencias e inspiración. El proceso te pide seleccionar palabras clave, elegir un estilo y confirmar la generación; tras unos segundos, aparecen cuatro fondos entre los que escoger. Una vez decidas, se fija el elegido y se guarda en tu librería, de modo que puedes reutilizarlo cuando quieras.

Importante: por ahora esta función de IA para fondos de pantalla se encuentra limitada a los Pixel. Si tienes otro modelo con Android 14, lo normal es que llegue en una actualización futura o que el fabricante lo integre a su manera. Mientras tanto, siempre puedes optar por herramientas web para crear tu imagen y aplicarla como fondo, lo que en la práctica te brinda mucha más libertad creativa.

No tienes un Pixel: alternativas gratis que van de lujo

Si tu móvil no cuenta con la función nativa, puedes conseguir resultados buenísimos con generadores gratuitos en la web. Microsoft Bing Image Creator es de los más populares por su facilidad y calidad. Solo necesitas iniciar sesión con tu cuenta de Microsoft y dispones de un cupo generoso de créditos diarios (100 al día), suficiente para probar estilos y refinar tus instrucciones. Tras unos segundos, obtendrás cuatro imágenes por prompt y podrás descargar la que más te convenza. Eso sí, muchas veces las imágenes salen cuadradas, así que luego es recomendable recortar a formato vertical antes de ponerlo.

Playground AI, basado en Stable Diffusion, permite un control más fino y, sobre todo, crear imágenes verticales desde el principio. Ofrece hasta 1000 generaciones diarias por cuenta, de modo que puedes experimentar largo y tendido. Si eliges el modelo Stable Diffusion 1.5 tendrás más margen de personalización, mientras que con la versión 2.1 ganarás en calidad general. En ambos casos, la curva de aprendizaje es corta y los resultados son muy sólidos.

Stable Diffusion Web es la puerta de entrada más directa: no requiere registro y funciona desde el navegador. Escribes el prompt, pulsas generar y listo; te devuelve varias variantes y eliges la que te guste. Para pruebas rápidas o para inspirarte, es comodísimo, y si te gusta un resultado siempre puedes pasarlo por un escalador de resolución y dejarlo listo para el móvil.

Más generadores útiles: Media.io y su enfoque para wallpapers

Media.io AI Wallpaper Generator está pensado justamente para crear fondos en proporciones que encajen con pantallas reales. Permite marcar palabras negativas para excluir elementos no deseados, elegir diferentes modelos y fijar proporciones concretas como 16:9, 9:16, 4:3 o 3:4. Es una ventaja si quieres tu wallpaper para móvil en vertical o para escritorio en panorámico, porque evitas recortes agresivos y aseguras un encuadre perfecto desde el principio.

Además, al estar basado en texto a imagen, funciona igual de sencillo que otros generadores: describes la escena, seleccionas estilo y proporción, y generas. Al terminar puedes descargar la imagen y usarla como fondo en tu teléfono, tu ordenador o incluso imprimirla si te apetece. Esta versatilidad lo convierte en una opción muy práctica cuando necesitas controlar formato y estilo sin calentarte la cabeza.

Ajustes clave: recorte, resolución y calidad final

Muchas imágenes generadas por IA llegan en formato cuadrado o con resolución justa, algo que se nota en pantallas de alta densidad. Lo ideal es recortar y reescalar para que el fondo quede perfecto en vertical. Herramientas como Pixlr X te sirven para recortar a 9:16 si es para móvil, o a 16:9 si es para escritorio, cuidando que los elementos importantes queden en el centro para no taparlos con iconos o widgets. Si, además, aplicas un escalado con IA, ganas nitidez y detalle sin perder calidad aparente, y puedes complementar con una edición rápida de fotos en Google Fotos para pulir el resultado.

Para el reescalado, servicios como upscale.media son rápidos y efectivos. Subes la imagen, eliges un aumento de hasta 4x y activas la mejora de calidad. Tras el procesado, puedes descargarla lista para usar. Esta combinación de recorte y upscaling marca la diferencia, especialmente cuando el generador original te ha dado un tamaño más pequeño del ideal para tu pantalla.

Elegir tema y estilo sin perder usabilidad

Cuando pienses en tu nuevo fondo, plantéate qué quieres transmitir y cómo interactúas con la pantalla. Un diseño precioso puede convertirse en un estorbo si tapa iconos o hace ilegibles los textos. Es buena idea optar por composiciones limpias, con zonas de menor contraste en la parte donde van los iconos. Si quieres calma, ve a colores suaves y paletas relajantes; si buscas energía, prueba tonos vibrantes y patrones dinámicos. En definitiva, lo interesante es que el wallpaper encaje con tu personalidad sin sacrificar legibilidad.

También ayuda trabajar por estilos: minimalista, abstracto, paisaje, futurista, ilustración, pintura clásica, anime… Cuanto más explícito seas en tu prompt, mejor responderá la IA. Añade palabras sobre iluminación, composición, textura o enfoque, y si hay algo que no quieres ver, usa negativas (por ejemplo, sin texto, sin marcas de agua, sin bordes). Este truco, que soportan generadores como Media.io, limpia los resultados de elementos molestos.

Cómo sacarle partido a los prompts

Redactar un buen prompt es medio trabajo hecho. Comienza por una descripción clara del sujeto y el entorno, añade estilo artístico o fotográfico, define iluminación y color, e indica formato deseado. Ejemplo orientativo: paisaje de montaña con lago al amanecer, niebla suave, estilo pintura al óleo sutil, colores fríos y pinceladas finas en vertical 9:16. Con esta estructura, el modelo entiende mejor la intención y te dará propuestas más alineadas.

Si te bloqueas al escribir, puedes apoyarte en otra IA para que te ayude a formular instrucciones detalladas. Herramientas de conversación de Google como Bard o Gemini generan prompts completos a partir de una idea corta, incluso en inglés si lo necesitas. Después, basta con pegar ese texto en tu generador favorito y afinar pequeños matices manualmente; verás que la calidad sube varios enteros con indicaciones más ricas.

Paso a paso genérico para crear tus fondos de pantalla con IA

El flujo general es muy parecido en la mayoría de herramientas. Primero, elige un generador que se ajuste a lo que buscas: si quieres algo rápido y creativo, Bing es un gran punto de partida; si necesitas vertical de fábrica, Playground AI es comodísimo; si quieres controlar proporciones desde el inicio, Media.io lo clavará. Tener claro el objetivo te ahorra vueltas, porque cada plataforma brilla en un aspecto.

Segundo, describe con precisión lo que quieres ver y, si procede, marca palabras negativas. Ser específico evita interpretaciones raras y reduce la necesidad de repetición. Tercero, ajusta dimensiones o proporciones antes o después de generar. Si la herramienta no ofrece vertical, planifica el recorte posterior para no perder detalles. Finalmente, descarga la imagen y pruébala como fondo. Repite pequeñas iteraciones hasta que el resultado te convenza; con práctica, clavarás tu estética en pocas rondas.

Otras apps y opciones que te pueden cuadrar

Si usas iPhone y te apetece explorar, YouCam AI Pro ofrece generación de imágenes de pago con sugerencias automáticas para arrancar sin pensar demasiado. Es útil si quieres crear algo vistoso con poco esfuerzo, y su enfoque guiado facilita dar con un estilo llamativo; además, las propuestas de la app sirven de inspiración para crear tus propios prompts.

En Android, si no cuentas con la última versión o no tienes un Pixel, Dream es otra alternativa popular para generar arte desde texto. Funciona con un modelo de suscripción, pero suele ofrecer algunas creaciones gratuitas de prueba. El proceso es sencillo: inicias sesión, escribes tu idea, generas, descargas y aplicas de fondo. Si te gusta la estética artística y quieres resultados rápidos, te saca del paso con buena nota.

Un apunte extra: incluso hay bots que permiten crear imágenes desde apps de mensajería. Herramientas como LuzIA en WhatsApp facilitan pedir imágenes en español sin complicarte con interfaces nuevas. No siempre obtendrás la mayor resolución, pero como laboratorio para idear y afinar prompts, van de perlas para calentar motores.

Matices útiles al trabajar fondos de pantalla con IA

Recuerda que algunos generadores top como Midjourney logran una calidad superior, pero son de pago. Si tu objetivo es tener fondos personales espectaculares sin gastar, las alternativas gratuitas cubren muy bien el expediente. Además, con trucos como el escalado por IA y el recorte bien pensado, puedes dejarlo impecable para tu pantalla. En resumen, compensa combinar la herramienta correcta, buenos prompts y un toque de edición para que tu wallpaper sea digno de enmarcar.

Si ya has generado una imagen y notas que pierde claridad al aplicarla, prueba a reducir un poco la saturación o difuminar ligeramente la zona donde van los iconos. Este ajuste evita que se mezclen colores con los elementos de la interfaz, mejorando la legibilidad del escritorio. Son microdetalles que marcan la diferencia y que, con dos retoques, elevan el aspecto profesional del resultado.

Crear fondos de pantalla con IA es, en el fondo, un proceso creativo divertido y accesible: elijas Android 14 con función nativa en Pixel o apuestes por generadores como Bing, Playground AI, Stable Diffusion Web, Media.io, Canva, GoArt, WOMBO, Deep Dream o Runway ML, el abanico de posibilidades es enorme.

Con una idea clara, prompts cuidados, proporciones correctas y un pelín de edición, consigues wallpapers únicos que encajan contigo y que hacen que tu móvil o tu PC se sientan realmente tuyos. Comparte esta información y más usuarios sabrán generar fondos de pantalla con Ia en Android.

Optimiza tu plegable: cambia la relación de aspecto de cualquier app

Actualidad en Androidsis - Jue, 06/11/2025 - 18:44

Si acabas de estrenar un plegable y te preguntas cómo ajustar la relación de aspecto de tus apps para que no se vean estiradas o con barras negras, estás en el sitio indicado. La combinación de nuevas políticas del sistema, ajustes por aplicación y buenas prácticas de diseño permite domar pantallas internas amplias, pantallas externas estrechas y el modo de ventanas de escritorio sin perder calidad o contexto.

En los últimos meses han surgido quejas de usuarios de dispositivos como Galaxy Fold y Pixel Fold: algunas apps se amplían demasiado, otras se deforman y, en juegos, el resultado puede ser inconsistente. Android 16, los ajustes de pantalla por app y una estrategia de UI adaptable apuntan a corregir ese vaivén, tanto si eres usuario que quiere forzar pantalla completa en segundos como si desarrollas y buscas continuidad impecable al plegar o desplegar.

¿Qué está cambiando en Android 16 para pantallas grandes y la relación de aspecto?

Cuando una app apunta a API 36, sus actividades se tratan como redimensionables por defecto y pueden entrar en multiventana si el dispositivo cumple el umbral de ancho mínimo. En ese contexto, el sistema ignora atributos y APIs como screenOrientation, resizeableActivity, minAspectRatio, maxAspectRatio y llamadas como setRequestedOrientation() con valores fijos de orientación que antes forzaban la UI.

Excepciones, opt‑out temporal y calendario de publicación

Hay salvedades a este modelo. No se aplican estas anulaciones en pantallas con sw < 600dp (móviles convencionales y muchas pantallas externas de plegables) y los juegos (según la marca android:appCategory=game) quedan fuera. Además, si el usuario activa en ajustes el comportamiento original de la app para la relación de aspecto, esa preferencia prevalece.

Si por motivos justificados necesitas desactivar este comportamiento en API 36, existe una propiedad de manifiesto compatible. Puedes declararla por actividad o a nivel de aplicación para permitir restricciones de tamaño específicas mientras migras a una UI adaptable.

<activity ...> <property android:name="android.window.PROPERTY_COMPAT_ALLOW_RESTRICTED_RESIZABILITY" android:value="true" /> </activity> <application ...> <property android:name="android.window.PROPERTY_COMPAT_ALLOW_RESTRICTED_RESIZABILITY" android:value="true" /> </application>

Ten presente el horizonte: en API 37 ya no se permitirá desactivar este comportamiento en pantallas con sw ≥ 600dp. Por su parte, las tiendas fijan sus propios plazos; Google Play exigirá target API 36 a partir de agosto de 2026, por lo que conviene planificar la transición con tiempo.

Ajustes rápidos para usuarios: relación de aspecto por app y densidad

Si lo tuyo es más práctico y quieres resultados ya, revisa los ajustes del sistema de tu marca. En muchos dispositivos encontrarás “Apps en pantalla completa” o “Escalado de aplicaciones” en Ajustes > Pantalla para forzar que una app llene toda la superficie disponible o se mantenga en un marco más estrecho.

En algunos plegables también verás un botón contextual que pasa a pantalla completa cuando detecta contenido 16:9. El problema es que a veces no existe un gesto inverso rápido para volver a 16:9 y apps como Instagram pueden comportarse de forma extraña al desplazarse a pantalla completa.

Si necesitas afinar más, desde las Opciones de desarrollador puedes cambiar el “Ancho más pequeño” (densidad lógica). Subir ese valor hace que todo se vea más pequeño; bajarlo, más grande. Haz cambios incrementales y apunta el valor original para poder volver atrás si el ajuste no te convence.

Google también ha impulsado mejoras en expansiones por app. Con Android 14 QPR1 se introdujo la posibilidad de ampliar aplicaciones individualmente en pantallas grandes (confirmado por filtradores como Mishaal Rahman), facilitando eliminar barras negras en Pixel Fold y Pixel Tablet; en Android 15 se prevé su presencia generalizada en grandes pantallas salvo decisión contraria del fabricante.

Voces reales: cuando tu app se ve rara en un Fold

Hay usuarios del Galaxy Fold que reportan que Instagram o Reddit aparecen demasiado ampliadas o estiradas, y que los juegos se ven mal o con zoom excesivo. Algunos incluso sopesan devolver el dispositivo porque la pantalla interna parece empeorar la experiencia en vez de mejorarla, pese a venir preparados para que los vídeos no cubrieran toda la superficie.

También se mencionan desencantos con la cámara o la batería en algunos escenarios, aunque lo que más pesa es la compatibilidad de apps de terceros. La pregunta recurrente es si existe un ajuste que fuerce relación de aspecto o pantalla completa sin tener que ir app por app, y si hay atajos o apps de terceros que hagan el cambio “al vuelo”. A día de hoy, el sistema ofrece controles por aplicación y botones contextuales, pero no siempre hay un conmutador universal inmediato.

Fundamentos técnicos Android: continuidad, estados y posturas

Para que todo fluya al plegar y desplegar, hay que pensar en estados y posturas, no solo en tamaños fijos. ViewModel, Jetpack Navigation y onConfigurationChanged son la base para experiencias continuas que no pierden el contexto al pasar de pantalla externa a interna.

La continuidad de pantalla es la esencia de un plegable: si estás leyendo un correo en la cubierta y despliegas el teléfono, lo ideal es mostrar el detalle del mensaje junto a la lista en una interfaz de dos paneles. Con ViewModel el estado de UI (ítem seleccionado, scroll, formularios) sobrevive a cambios de configuración, y con navegación en actividad única cambias fragments según el espacio real.

Olvida “adivinar” tamaños físicos y trabaja con métricas reales. WindowMetrics y Jetpack WindowManager te dicen el área de ventana efectiva, muy útil en multiventana y escritorio, donde la región usable puede diferir de la pantalla física.

Tipos de plegables y diseño: bisagra, posturas y 12L

Hay diseños tipo libro (Z Fold, Pixel Fold), tipo concha (Z Flip) e incluso doble pantalla (Surface Duo). La bisagra introduce zonas a evitar para elementos críticos; apóyate en el soporte mejorado de Android 12L y posteriores para adaptar layouts en función del pliegue y las clases de tamaño.

Para dos paneles en vistas clásicas, SlidingPaneLayout facilita una separación adecuada, y ConstraintLayout ayuda a que el contenido fluya sin posiciones absolutas. Recuerda declarar android:resizeableActivity=true (o asume el valor por defecto en API 36+ en pantallas grandes) y prueba los presets de plegables del emulador para validar posturas.

Compose y Window Size Classes: una UI que no se rompe

Jetpack Compose simplifica el diseño adaptable. Las Window Size Classes (Compact, Medium, Expanded) te permiten decidir cuándo mostrar una o dos columnas, ampliar tipografías o cambiar un listado por un grid de 2–3 columnas sin atarte a dispositivos concretos.

En el composable raíz, obtén la clase de tamaño y propágala como estado derivado. Evita condicionar componentes internos a “¿es tablet?”; la app puede ir en multiventana o en un monitor externo con dimensiones atípicas.

BoxWithConstraints resulta útil para alternar representaciones según el espacio disponible. No difieras la carga de datos en función del tamaño; pasa toda la información al componente y decide qué se muestra, minimizando efectos secundarios al redimensionar.

En cuanto a estado, eleva banderas como mostrarMás al nivel superior y usa rememberSaveable cuando deba sobrevivir a recreaciones. La inicialización pesada muévela al init del ViewModel para que no se repita con cada cambio de configuración.

Evitar estiramientos, habilitar scroll y cuidar la cámara

Si un diseño no se desplaza, en horizontal puedes “perder” botones fuera del viewport. Habilita scroll donde proceda y verifica accesibilidad con tamaños de letra grandes y lectores de pantalla. Mantén actualizadas librerías y APIs, incluida la compatibilidad con Android 16.

Las vistas previas de cámara que asumen orientación o ratio fijos pueden aparecer estiradas o invertidas. Asegura que el visor rota correctamente y se adapta a relaciones de aspecto de UI distintas a las del sensor.

Pruebas en emulador y dispositivos reales

Para validar los cambios de Android 16, usa emuladores de Pixel Tablet y Pixel Fold en Android Studio y activa targetSdkPreview= «Baklava» en tu módulo. También puedes activar UNIVERSAL_RESIZABLE_BY_DEFAULT desde el marco de compatibilidad para simular comportamiento de redimensionado universal.

Automatiza con Espresso y las APIs de test de Jetpack Compose; con UI Automator puedes verificar elementos en distintas posturas. Prueba transiciones: desplegar en reproducción de vídeo, alternar de una a dos columnas y asegurar que no hay pérdidas de estado ni cierres inesperados.

Las granjas de dispositivos son aliadas si no cuentas con hardware. Firebase Test Lab y Samsung Remote Test Lab te dan acceso a equipos reales bajo demanda e integración CI/CD para detectar regresiones nocturnas.

Modelado web para plegables: CSS, APIs de segmentos y rendimiento

En la web, los plegables piden algo más que breakpoints clásicos: necesitas tener en cuenta la relación de aspecto y segmentos de pantalla. Combina media queries por ancho con aspect-ratio y reorganiza menús, grids e imágenes en tiempo real.

@media (min-width: 600px) and (max-width: 900px) { /* Intermedias: plegable semiabierto */ } @media (aspect-ratio: 3/4) { /* Vertical plegado */ } @media (aspect-ratio: 16/9) { /* Apaisado desplegado */ }

Si el navegador lo admite, la Window Segments API ayuda a detectar segmentos activos para UIs multipanel. Complementa con viewport-fit: cover para esquinas redondeadas y detecta la orientación desde JS sin reflows innecesarios.

if (window.screenSegments) { const segments = window.screenSegments; console.log(segments); } /* CSS */ body { viewport-fit: cover; } /* JS */ if (screen.orientation.type === 'landscape-primary') { console.log('Modo apaisado'); }

El rendimiento manda: usa carga diferida, compresión y Lighthouse/WebPageTest para recortar cuellos de botella. En multitarea de plegables, una web lenta se abandona antes, y más si compite con apps nativas bien optimizadas.

Wear OS: microinteracciones que aportan valor en segundos

En relojes como Galaxy Watch o Pixel Watch, la clave son interacciones cortas. Prioriza Tiles, complicaciones y notificaciones para mostrar datos esenciales y abrir la app con un toque cuando haga falta.

Compose for Wear OS y componentes como ScalingLazyColumn ayudan en pantallas pequeñas y curvas. Diseña pensando en ambient mode y batería, reduce llamadas de red y apóyate en Health Services para sensores. Wear OS 6 incorpora Material 3 y mejor integración con IA para respuestas contextuales.

Las complicaciones deben entregar un dato único relevante (siguiente cita, mensajes sin leer) y las Tiles acciones rápidas (play/skip, pasos). ComplicationSlotsManager permite que el usuario añada tus datos a su esfera favorita.

Errores típicos que hunden la experiencia

Con el empuje de Android 16, los fallos clásicos se notan más. No ignores la bisagra en el layout, no bloquees orientación sin causa, evita componentes que ocupan todo el ancho sin límites y no olvides el scroll donde puede faltar altura.

En wearables, mantén la UI simple y accesible, con dianas táctiles generosas y gestos básicos. Actualiza librerías y API level de forma periódica y verifica la compatibilidad con lectores de pantalla y tamaños de letra altos.

Estrategia y partners para acelerar

Optimizar para plegables y wearables no es duplicar trabajo, es adoptar arquitecturas inteligentes y adaptativas. Equipos con experiencia en IA, ciberseguridad y cloud (AWS/Azure) pueden acelerar la entrega cuidando rendimiento, seguridad y escalabilidad.

Un ejemplo: en Q2BSTUDIO se posicionan como socios para construir apps y software a medida que aprovechan pantallas dinámicas, agentes de IA y analítica avanzada. Integran inteligencia de negocio y Power BI para que el producto no solo funcione, sino que genere insights accionables. Si buscas desarrollo a medida o consultoría de ciberseguridad, su propuesta cubre desde la estrategia hasta la implementación.

Comunidad y ecosistema Pixel

Si te van los foros, la comunidad de Samsung Galaxy Fold reúne noticias, reseñas, consejos y debates sobre plegables en general. Participa con respeto, añade tu flair y reporta contenidos que incumplan normas para mantener un buen ambiente.

En el ecosistema Pixel, el Pixel Fold apuesta por un formato 6:5 que, al desplegar, roza la sensación de tablet en un cuerpo delgado. La Pixel Tablet incluye un panel LCD de 10,95 pulgadas a 2560×1600, y la familia Pixel recibió novedades como Video Boost y Night Sight para vídeo, además de mejoras de cámara, modo cámara web por USB en modelos recientes, limpieza de documentos y avances de privacidad.

Dominar la relación de aspecto y el redimensionado en apps para plegables implica aceptar el nuevo modelo: deja que el sistema gestione pantallas grandes, construye UIs responsivas, preserva el estado y prueba en escenarios reales. Si tu dispositivo no rinde como esperabas y estás valorando cambiar, existen opciones de recompra y venta de segunda mano —se han citado servicios como Moviloff— para dar una segunda vida al terminal.

Entre tanto, los ajustes por app, el control del ancho más pequeño y la adopción de prácticas de Android 16 te permitirán disfrutar de más contenido visible, menos deformaciones y una experiencia a la altura de tu pantalla. Comparte esta información y más personas sabrán configurar su móvil plegable y mejorar la relación de aspecto.

Guía completa del nuevo panel de control de Google Home

Actualidad en Androidsis - Jue, 06/11/2025 - 18:39

El ecosistema de Google para el hogar conectado ha dado un paso más con la llegada del nuevo panel de control a Google TV, un acceso directo pensado para gestionar luces, termostatos, cerraduras o cámaras sin levantarte del sofá. Esta guía te explica a fondo cómo funciona ese panel, qué puedes controlar y qué no, y cómo encaja dentro de todo lo que ya puedes hacer con Google Home y Google Nest.

Además, repasamos los controles físicos del popular Google Home Mini, la app Google Home y su compatibilidad con marcas como SONOFF, y un compendio de 37 trucos y comandos para exprimir el Asistente de Google en el día a día. Todo está organizado para que tengas en un solo sitio la guía que estabas buscando, con explicaciones claras, pasos prácticos y notas importantes.

¿Qué puedes hacer con Google Nest y Google Home?

Las bocinas y pantallas de Google Nest y Google Home facilitan tareas cotidianas y de ocio. Con la voz puedes reproducir música, podcasts y radio; recibir noticias; ver resúmenes en la tele con dispositivos compatibles con Cast; o relajarte con sonidos ambientales. También puedes conectar tu móvil por Bluetooth para reproducir tu biblioteca local.

En el salón, la integración con Cast te permite enviar series, películas y vídeos de YouTube a televisores y altavoces compatibles. Puedes formar grupos multiestancia, reproducir audio de tu teléfono en diferentes altavoces y hasta encender o apagar la TV con la voz si tu equipo lo admite. La experiencia está pensada para que todo se sienta unificado.

Para organizarte, el Asistente ofrece rutinas como ‘Buenos días’ con el tiempo, agenda, desplazamientos y noticias. También puedes consultar tráfico, buscar sitios cercanos, ver el clima de tu ciudad o de otra, revisar tu calendario e informarte del estado de vuelos. Todo sin tocar el móvil.

En productividad, el Asistente permite llamadas, atajos personalizados, tareas y recordatorios, así como enviar información desde la bocina o pantalla al teléfono. Incluso puede ayudarte a encontrar el móvil haciéndolo sonar, guardar datos que quieras recordar y difundir mensajes de voz a todas las bocinas o pantallas de casa.

Para el día a día, configura temporizadores para cocinar o jugar y alarmas para no perder ninguna cita. Además, puedes preguntarle literalmente lo que quieras: datos, finanzas, deportes, cálculos, traducciones, conversiones, nutrición o definiciones de diccionario. Es el buscador de Google, pero hablado.

Si tienes dispositivos inteligentes, el Asistente los controla con la voz: luces, enchufes, termostatos y más. Puedes crear rutinas que automaticen acciones por horario o evento, integrar servicios de terceros con IFTTT y transmitir cámaras compatibles en tu tele o pantalla Nest. También escucharás el timbre o verás quién llama si tienes un timbre compatible.

Controles táctiles y hardware del Google Home Mini

El Google Home Mini incluye una superficie táctil que responde a toques y pulsaciones para manejar el contenido sin voz. Para reproducir, pausar o detener el contenido multimedia, o colgar una llamada, mantén pulsado el lateral izquierdo o derecho del dispositivo. Es un gesto rápido cuando no quieres hablar.

Si suena una alarma o un temporizador, puedes frenarlos manteniendo pulsado uno de los laterales. Subir el volumen es tan simple como tocar el lado derecho; cada toque aumenta el nivel en incrementos del 10 %, dentro de un rango de 0 a 100 %. Es un control fino y directo.

Para bajar el volumen, mantén pulsado el lateral izquierdo hasta alcanzar el nivel deseado. Recuerda que el rango abarca del 0 al 100 %; cuando el volumen se queda en 0, el contenido multimedia queda silenciado, pero el Asistente aún hablará a un 5 % de volumen, por si necesitas respuestas.

El micrófono se activa o desactiva con el interruptor situado junto al cable de alimentación. Con el micro activo, verás luces blancas; si lo apagas, tanto el interruptor como las luces se mostrarán en color naranja. Al desactivar el micro, el Asistente no te escuchará ni podrá interactuar hasta que lo reactives.

Para restablecer el Home Mini a estado de fábrica, busca en la base el botón de reseteo bajo el cable de alimentación y mantenlo pulsado unos 12 segundos. Es útil si vas a regalarlo, venderlo o solucionar un problema de configuración persistente. Si necesitas apagar por completo el dispositivo, desenchufa el cable de alimentación.

La app Google Home y el ecosistema: compatibilidad con SONOFF

La aplicación Google Home, desarrollada por Google, centraliza la configuración y control de productos como Google Nest, Google Wifi y Chromecast, además de miles de dispositivos de hogar inteligente compatibles. Desde la app Google Home ves el estado de tus equipos, creas accesos directos a tus acciones habituales y gestionas todo desde cualquier lugar. También puedes pedir al Asistente que controle esos dispositivos con la voz.

Si usas equipos SONOFF, su integración pasa por la app eWeLink. Añade tus dispositivos SONOFF a eWeLink, vincula tu cuenta eWeLink en Google Home y usa la voz con un altavoz Google Home para ejecutar órdenes del tipo ‘Hey Google, atenúa la luz’ o ‘Hey Google, abre las persianas’. Es una forma de sumar marcas no nativas al ecosistema.

Panel de casa en Google TV: cómo es y qué permite

El nuevo panel de casa que llega a Google TV con el Google TV Streamer aporta un control rápido del hogar en la pantalla grande. Desde el mando puedes activar o desactivar luces, termostatos, cerraduras, cámaras, enchufes, aspiradoras, televisores o altavoces, y cambiar algunos ajustes básicos. Está pensado como atajo para lo esencial.

Conviene tener en cuenta sus límites actuales. En luces, puedes encender, apagar y regular el brillo, pero no cambiar el color desde el panel de Google TV; en termostatos, puedes ajustar la temperatura, aunque no la velocidad del ventilador. Las funciones avanzadas siguen en la app móvil. Para cambiar color desde la app, consulta cómo cambiar el color de las bombillas.

Una buena práctica es crear botones de automatización en la pestaña Favoritos de Google Home en el móvil. Esos botones aparecen también en el panel de Google TV, de modo que puedes lanzar escenarios complejos como sincronizar iluminación con tu sistema de entretenimiento usando un solo clic. Así compensas parte de las limitaciones.

Requisitos y cómo activarlo en Google TV

Para usar el panel de casa en tu tele, necesitas cumplir varias condiciones. Debes ser propietario o miembro de una casa en Google Home vinculada a tu perfil de Google TV, tener Google TV en modo Estándar, habilitar el acceso al panel y contar con al menos un dispositivo inteligente añadido además del propio Google TV. Si falta algo, el panel no aparecerá.

La primera vez que se inicia, aparece una bienvenida en la que puedes activar el panel. Si lo pasaste por alto, abre los ajustes rápidos en la parte superior de Google TV, entra en Ajustes, ve a Cuentas e inicio de sesión, selecciona tu perfil y encontrarás el apartado Google Home con el interruptor para activar o desactivar el panel. Actívalo y listo.

Control y personalización desde el panel

Para abrir el panel de casa, usa los ajustes rápidos desde el icono de la parte superior o mantén pulsado el botón de inicio del mando. Arriba verás espacios o grupos como Iluminación o Cámaras; debajo aparecen tus dispositivos favoritos, tal y como los tengas configurados en la app Google Home. La sincronización es automática.

La personalización se hace en el móvil. Para añadir o reordenar favoritos que quieres ver en la tele, edítalos en la app Google Home en la pestaña correspondiente; los cambios se reflejan en tu Google TV. Si has creado la cuenta de Google recientemente, la sincronización de la nueva estructura de la casa puede tardar hasta 36 horas.

37 trucos y comandos imprescindibles para Google Home
  1. Pide un resumen para empezar el día: di algo como ‘Buenos días’ para escuchar tiempo, calendario, desplazamientos y noticias seleccionadas.
  2. Configura Voice Match: en la app, entra en Ajustes del Asistente y activa Coincidencia de voz para que reconozca diferentes usuarios y personalice respuestas.
  3. Usa dos idiomas a la vez: en Ajustes del Asistente, Idiomas, añade un segundo idioma y alterna libremente entre ambos sin cambiar nada más.
  4. Cambia cómo te llama: dile que te trate por otro nombre, confirma y el Asistente lo recordará para futuras interacciones.
  5. Modifica las unidades por defecto: pídele usar Fahrenheit si lo prefieres; el sistema conservará la preferencia hasta nuevo aviso.
  6. Que te cante: solicítale una canción o cumpleaños feliz; se arrancará con temas aleatorios, aunque el ‘talento’ es mejorable.
  7. Pon música en tu servicio favorito: pide un artista, canción o playlist en Spotify, YouTube Music u otros; puedes especificar el proveedor.
  8. Añade o cambia fuentes musicales: en Ajustes > Servicios del Asistente > Música, elige el servicio predeterminado o vincula nuevos.
  9. Vincula apps de vídeo: en TV y vídeo, conecta Netflix o YouTube Kids y activa Google Photos como fuente de imágenes si lo deseas.
  10. Usa altavoces Bluetooth externos: en el dispositivo, entra en Altavoz de música predeterminado y vincula un altavoz Bluetooth para mejor audio.
  11. Reproduce vídeos en la tele: pide un vídeo en tu Android TV o Chromecast por su nombre y controla con la voz volumen, pausa o subtítulos.
  12. Ruido blanco para relajarte: solicita sonidos como lluvia o tormenta indicando que quieres el sonido ambiental para evitar reproducir canciones.
  13. Consulta el tiempo: pregunta por el clima actual o la previsión en una ciudad concreta u otra fecha específica.
  14. Añade un evento al calendario: dicta el nombre y la fecha; el Asistente confirmará los detalles antes de guardarlo.
  15. Encuentra profesionales o restaurantes: pide peluquerías cercanas o di ‘tengo hambre’ para obtener propuestas de sitios próximos.
  16. Crea recordatorios: dicta el mensaje y momento, como ‘recuérdame apagar la tele en cinco minutos’; lo recibirás en el móvil.
  17. Escucha las noticias: solicita un boletín y oirás resúmenes de medios y emisoras compatibles en tu idioma.
  18. Que repita lo que dices: usa ‘repite después de mí’ seguido de tu frase; útil para practicar pronunciación o bromear.
  19. Traducciones y conversiones: pide traducir frases o convertir divisas y unidades; responde al instante con voz y texto.
  20. Intérprete en tiempo real: activa el modo intérprete para mantener conversaciones entre dos idiomas con traducción simultánea.
  21. Borra tu actividad por voz: solicita eliminar la última interacción, lo de hoy o lo de esta semana para mayor privacidad.
  22. Lanza una moneda: deja que el Asistente elija cara o cruz cuando no haya árbitro a mano.
  23. Números aleatorios y dados: pídele un número al azar o simula tirar un dado indicando el rango, por ejemplo del 1 al 6.
  24. Consulta vuelos o trenes: pregunta por opciones entre dos ciudades en una fecha concreta para hacerte una idea de precios y duración.
  25. Usa alarmas como despertador: define una hora específica o una cuenta atrás para dentro de unos minutos.
  26. Activa temporizadores: ideal en cocina; configura temporizadores por duración y gestiona varios a la vez.
  27. Gestiona la lista de la compra: añade artículos por voz y accede a la lista desde el móvil cuando vayas al super.
  28. Diccionario y enciclopedia: pide definiciones o datos como biografías, fechas y hechos históricos.
  29. Calculadora integrada: haz operaciones matemáticas y cálculos más complejos como raíces o porcentajes.
  30. Controla tus dispositivos inteligentes: enciende luces, maneja enchufes, regula termostatos o inicia rutinas por voz.
  31. Envía anuncios a toda la casa: con ‘anuncia’, graba un mensaje y se reproducirá en todas las bocinas o pantallas conectadas.
  32. Añade eventos al calendario con confirmación: dicta nombre y fecha; si te equivocas, podrás corregir antes de guardar.
  33. Encuentra tu teléfono: pide localizarlo; si tienes varios, elige cuál y hazlo sonar, incluso en silencio en algunos casos.
  34. Panel táctil en dispositivos: toca la parte superior para pausar o reanudar música y desliza en círculo para ajustar volumen; los gestos varían según modelo.
  35. Modo nocturno: desde la app, programa horarios, activa no molestar y ajusta brillo de LEDs y volumen del Asistente por la noche.
  36. Ecualizador del altavoz: ajusta agudos y graves en la app para afinar el sonido a tu gusto.
  37. Llamadas con Google Duo: activa ‘Llamadas de Duo’ en la configuración del dispositivo y pide llamar a un contacto compatible.
  38. Cuando te aburras: di ‘jugar’, ‘cuenta un chiste’, ‘recita un poema’, ‘sorpréndeme’, ‘dime un acertijo’ o ‘un proverbio’; y recuerda: ‘para’ detiene al Asistente en cualquier momento.
Notas, compatibilidades y condiciones importantes

Algunas funciones requieren conexión a Internet y red Wi‑Fi operativas. Las notificaciones en móviles y navegadores, el control remoto o la transmisión y grabación de vídeo dependen de esa conectividad 1510.

Para usar Google Home en reloj, se necesita un smartwatch con Wear OS 3 o superior, una cuenta de Google y la última versión de la app en el reloj y el teléfono, además de Internet y Wi‑Fi. Sin estos requisitos, las funciones en muñeca no están disponibles 2.

Los controles del hogar exigen dispositivos inteligentes compatibles. Verifica la compatibilidad de cada producto antes de comprar o integrar.

Las vistas de cámara y timbre en la app Home y en pantallas o TV dependen del modelo. Determinadas funciones como transmisión, grabación o vista en directo a pantalla completa están limitadas a modelos concretos de Nest Cam y Nest Doorbell 4789.

El Emparejamiento Rápido requiere auriculares compatibles y tener la ubicación habilitada. Es una función opcional para simplificar la vinculación 11.

Para acceder a Google TV se necesita una cuenta de Google, Internet y un dispositivo de streaming, una tele inteligente o un smartphone compatible. Servicios y dispositivos se venden por separado y están sujetos a disponibilidad 1213.

Con todo lo anterior, ya tienes en tu mano un control potente y bien integrado del hogar: desde el mando de tu Google TV para lo esencial, pasando por la app Google Home para ajustes avanzados, hasta la voz como interfaz universal y manos libres; si combinas favoritos, automatizaciones y los trucos clave, el ecosistema de Google se convierte en un auténtico asistente doméstico que ahorra tiempo y hace tu casa más cómoda. Comparte este tutorial y ayuda a otros a gestionar su panel de control en Google Home.

Gemini para presentaciones: Guía para crearlas en segundos

Actualidad en Androidsis - Jue, 06/11/2025 - 16:07

Si necesitas que tus diapositivas pasen del “meh” al “wow” en poco tiempo, Gemini integrado en Presentaciones de Google puede ser tu mejor aliado. Esta IA genera imágenes, elabora nuevas diapositivas, resume contenidos y te ayuda a escribir o reescribir texto sin salir de Slides, además de consultar archivos de tu Drive para inspirar o completar el material.

Más allá de lo obvio, lo interesante es cómo se integra en tu flujo real de trabajo. Desde un panel lateral, eliges instrucciones sugeridas o escribes las tuyas, insertas resultados con un clic y continúas puliendo la presentación sin fricciones. En las siguientes líneas encontrarás una guía completa, con pasos, ejemplos, advertencias y alternativas para exprimir al máximo Gemini en tus presentaciones.

Qué es y qué puede hacer Gemini en Presentaciones

Gemini es el asistente de IA que encontrarás integrado en Google Slides (Presentaciones) y que funciona desde un panel lateral. Con él puedes generar imágenes, crear nuevas diapositivas, resumir toda una presentación y escribir o reescribir texto en cuestión de segundos.

Además, su integración con tu cuenta te permite aprovechar el contexto de tus documentos. Puedes referenciar archivos de Google Drive mientras escribes o cuando pides que se creen diapositivas nuevas, de forma que el contenido tome como base material que ya tienes.

Si buscas atajos, Gemini incluye instrucciones prediseñadas que puedes lanzar tal cual o adaptar. Es tan simple como abrir el panel “Preguntar a Gemini”, escoger una sugerencia y pulsar Intro para obtener resultados en pocos segundos.

Gemini también funciona como tu “ayudante” mientras diseñas. En cuadros de texto vacíos verás opciones como “Escribe un título” o “Ayúdame a escribir” para que la IA proponga un encabezado o cuerpo y tú decidas si insertar, modificar o descartar.

Otro punto clave es su capacidad de apoyo durante la preparación y exposición. Puedes preguntarle cómo iniciar Q&A, cómo compartir con grandes audiencias o resolver dudas prácticas para presentar mejor y colaborar con el equipo.

Empezar a usar Gemini en Presentaciones

La puesta en marcha no tiene misterio: abre tu archivo de Presentaciones en el ordenador y haz clic en “Preguntar a Gemini” en la esquina superior derecha. Se desplegará el panel lateral desde el que harás todo.

Para lanzar tu primera solicitud, tienes dos opciones. Selecciona una sugerencia de la lista (y pulsa “Más sugerencias” si quieres variedad) o escribe tu propia instrucción en el cuadro de la parte inferior y confirma con Intro.

¿Quieres mantener un rastro de lo que has probado? Toma nota de esto: si borras el historial desde “Más opciones > Borrar historial”, lo perderás por completo. También se eliminará si cierras y vuelves a abrir la presentación, si actualizas el navegador o si el equipo se queda sin conexión.

Para no arriesgarte a perder el hilo, conviene que insertes los resultados útiles directamente en la presentación. Así, aunque el historial del panel desaparezca, tu trabajo permanecerá en las diapositivas.

¿Te apetece ver ideas rápidas? Gemini te mostrará sugerencias contextuales y ejemplos para guiarte en las primeras pruebas; son un buen punto de partida si no tienes claro qué pedir.

Acciones clave paso a paso dentro de Slides

Gemini funciona mejor cuando le das contexto y un objetivo claro. Estas son las tareas más útiles y cómo ponerlas en marcha dentro de Presentaciones sin complicarte.

Generar una diapositiva nueva a partir de un prompt

Desde el panel lateral de Gemini, selecciona una sugerencia o escribe tu propia petición. Las diapositivas generadas respetarán el tema actual de tu presentación, así que verás resultados cohesionados con tu estilo.

  • Puedes mencionar documentos con @ para anclar el contenido: @Objetivos de la empresa 2023, @Plan comercial, etc.
  • Ejemplos de instrucciones: “Crea una diapositiva sobre cómo entrenar óptimamente para un maratón” o “Crea una diapositiva basada en la presentación @Objetivos de la empresa 2023”.
  • Una vez generada, puedes insertar, editar o pedir variaciones para ajustar el resultado.
Escribir títulos y textos con “Ayúdame a escribir”

Cuando tengas una diapositiva con cuadros de texto, selecciona el que quieras completar. Para el cuadro de título verás “Escribe un título” y para el de cuerpo “Ayúdame a escribir”. Al elegir una de estas opciones, se abrirá el panel y Gemini generará contenido acorde a la diapositiva.

  • Revisa lo que propone la IA y haz clic en Insertar para volcarlo al cuadro seleccionado.
  • No te limites a aceptar la primera opción: pide matices de tono, extensión o enfoque si lo necesitas.
Generar imágenes dentro de Presentaciones

Gemini puede crear imágenes sintéticas que encajen con tu tema dentro de Slides. Indícale estilo, elementos y propósito para obtener resultados más relevantes. Recuerda que las imágenes generadas solo pueden usarse en Presentaciones de Google y están pensadas para representar ideas, no escenas reales.

  • Si te interesa que la imagen tome como referencia tu contenido, pide que se base en la diapositiva actual o en un documento vinculado.
  • Si necesitas fotografías con personas, ten en cuenta esta limitación práctica: Gemini no genera imágenes con sujetos humanos.
Resumir una presentación y pulir el texto

¿Tu deck es muy largo y te gustaría un resumen ejecutivo o una vista general de secciones? Pide a Gemini que resuma la presentación y proponga puntos clave. También puedes encargar reescrituras para homogeneizar tono, simplificar tecnicismos o acortar.

  • Indica siempre tu objetivo: “Resumen en 6 bullets para directivos”, “Reducir a la mitad el texto manteniendo datos”, etc.
  • Usa el resultado como base y refina con tus matices de marca y contexto interno.
Conecta tu contenido: referencias a Drive y uso de @

Una de las funciones más prácticas es la referencia directa a recursos de tu Drive desde el prompt. Escribe @ y elige documentos, presentaciones o incluso correos de Gmail (cuando estén disponibles) para que Gemini los tenga en cuenta al generar contenido o nuevas diapositivas.

El beneficio es inmediato: ahorras tiempo y mantienes coherencia con documentos maestros, sin necesidad de copiar y pegar fragmentos. Es especialmente útil en decks de ventas, roadmaps o resúmenes de proyectos.

Para que funcione bien, procura que el material de origen esté limpio y actualizado; si el documento base es confuso, el resultado también lo será.

Si manejas contenido sensible, recuerda las recomendaciones de seguridad del producto. No compartas información confidencial en las instrucciones a menos que sea estrictamente necesario y tengas control de permisos.

Preguntas y respuestas: ayuda sobre Slides y respuestas de la Web

Gemini también te resuelve dudas operativas de Presentaciones. Puedes preguntar, por ejemplo, cómo lanzar una sesión de Q&A en directo o cómo compartir con más de 100 personas sin perder control.

  • Ejemplos útiles: “¿Cómo inicio una sesión de preguntas y respuestas mientras presento?” o “¿Cuál es la mejor forma de compartir estas diapositivas con más de 100 personas?”

Si necesitas respuestas de Internet desde el propio panel, hay un detalle muy importante: incluye en tu instrucción frases del tipo “usar la Búsqueda de Google” o “usando la búsqueda web”. Solo así pedirá datos a la Web y no se limitará al contexto del archivo.

  • Ejemplos orientativos: “Escribe un párrafo sobre el tiempo hoy en Buenos Aires usando la búsqueda web”, o “Explica si un rayo puede caer dos veces en el mismo sitio usando solo información de la Web”.
Gems: miniaplicaciones de IA listas para usar

Dentro del panel de Gemini verás la sección Gems. Son como “presets inteligentes” que encapsulan tareas típicas (ideas, resúmenes, estilos), para no empezar desde cero cada vez.

  • Cómo usarlos: abre “Preguntar a Gemini”, entra en Gems, elige uno predefinido o un Gem personalizado y escribe tu solicitud.
  • Para crear tus propios Gems personalizados, hazlo desde gemini.google.com. Luego podrás utilizarlos tanto en la app de Gemini como en el panel lateral de Slides.
Comentarios, seguridad y límites que debes tener presentes

Gemini (y las funciones relacionadas en Google Workspace) está en evolución constante. Si ves una buena sugerencia, márcala; si detectas un error o algo inseguro, usa “Mala sugerencia” y envía feedback detallado para ayudar a mejorar el sistema.

Conviene recordar algunas pautas: las sugerencias no representan la opinión de Google; no deben usarse como asesoramiento médico, legal, financiero u otras áreas profesionales; y pueden contener imprecisiones o contenido no apropiado.

Sobre privacidad y actividad, hay varios matices. Las conversaciones con Gemini en Presentaciones no se guardan en “Actividad en las Apps con Gemini”. Si borras el historial de conversación del panel, esa acción no elimina lo que ya esté guardado en dicha Actividad; revisa cómo gestionarla desde tu cuenta.

Respecto a los datos que se pueden utilizar en el panel lateral de Gemini en Presentaciones, se contemplan cuatro tipos: tus peticiones, el texto e imágenes generados, el contenido de Workspace al que haces referencia y tus comentarios. Consulta los avisos de privacidad y términos aplicables a tu cuenta para más detalle.

Si participas o has participado en funcionalidades de Labs, ten en cuenta las advertencias específicas: no compartas datos personales o sensibles en tus peticiones, y entiende que ciertos datos podrían usarse con fines de mejora, incluyendo revisiones humanas bajo procesos de agregación o seudonimización cuando aplique.

Hay limitaciones creativas y de uso: las imágenes generadas están concebidas para Slides y pueden no reflejar la realidad; además, en la práctica, Gemini no genera imágenes con personas. Mantén expectativas realistas y combina con recursos externos cuando haga falta.

Por último, si deseas desactivar el panel lateral de funciones experimentales, salir de Workspace Labs las desactiva, pero perderás acceso permanente a esas funciones y no podrás volver a unirte al programa.

Formación y recursos recomendados

Si quieres practicar en plan rápido, existen recursos de aprendizaje orientados a usuarios de todos los niveles. Encontrarás laboratorios introductorios de unos 10 minutos que te permiten ponerte a prueba sin necesidad de completar cursos largos y herramientas como la app Google NotebookLM.

También hay novedades interesantes alrededor del ecosistema: la posibilidad de generar una presentación completa desde Canvas con Gemini y exportarla a PowerPoint o a Google Slides abre puertas para crear versiones rápidas que luego puedes refinar en tu editor favorito.

Costes, calidad del resultado y acceso: lo que nadie te cuenta

Antes de apostar todo tu flujo a Gemini, conviene calibrar expectativas. La precisión del contenido requiere verificación manual; la IA puede sonar convincente y, aun así, equivocarse. Reserva unos minutos para contrastar datos en cada slide generada.

En imágenes, el abanico es útil pero limitado. Si necesitas escenas con personas u otras exigencias específicas, tendrás que recurrir a bancos de imágenes o herramientas alternativas. No lo dejes para el final.

También es relevante el presupuesto. Un coste de 20 dólares por usuario al mes puede escalar rápido en equipos (por ejemplo, 10 personas sumarían 2.400 dólares al año). Valora el retorno y compara escenarios.

La calidad depende en gran medida de cómo pides las cosas. Las indicaciones (prompts) bien escritas marcan la diferencia: especifica objetivo, tono, audiencia, longitud, formato y fuentes de referencia.

Por último, el acceso a integraciones avanzadas puede requerir suscripciones premium, permisos adecuados y roles de edición. Si falta cualquiera de estos requisitos, te encontrarás funciones bloqueadas y cuellos de botella innecesarios.

Flujos avanzados con ClickUp: IA, pizarras y datos unificados

Si quieres ir más allá de la edición de diapositivas, hay plataformas que integran IA en el propio espacio de trabajo. ClickUp combina gestión de proyectos, conocimiento y chat, y añade IA para redactar más rápido y coordinarte mejor.

Sus Pizarras permiten orquestar presentaciones de forma libre y colaborativa. Puedes añadir notas adhesivas, figuras, marcos, textos e imágenes generadas por IA sin encorsetarte en la estructura rígida de una slide tradicional.

Con ClickUp Brain, la IA hace de asistente para escribir, investigar y recuperar datos de tu trabajo. Es capaz de encontrar métricas clave (por ejemplo, el porcentaje de tareas completadas) y convertirlas en material para tus diapositivas.

Otra ventaja es la integración con Google Drive. Adjunta archivos a tareas y comentarios, visualiza enlaces en vivo y edita sin cambiar de pestaña. Así, mantienes todo el contexto en un único sitio.

Si necesitas arrancar rápido, puedes apoyarte en plantillas de presentación diseñadas para Pizarras. Son aptas para principiantes y favorecen la colaboración remota con estructura clara de principio a fin.

Otras vías con IA: PowerPoint, Gamma, Canva y Fotor

Si trabajas en PowerPoint, también puedes apoyarte en IA para acelerar. Plantea a una IA generativa que te proponga el índice, el reparto de diapositivas y los puntos clave por slide y revisa hasta lograr una estructura sólida.

Incluso puedes pedir que genere la diapositiva en formato imagen con tamaño de presentación y, si tu herramienta lo permite, exportar directamente a .pptx. Define bien el estilo visual para que todas las piezas mantengan coherencia.

¿Prefieres herramientas que generan decks casi solos? Gamma.app crea presentaciones a partir de texto pegado, ideas sueltas o incluso importando un archivo/URL. Con la versión gratuita puedes montar hasta 10 módulos; para 60, necesitas plan de pago.

En esa línea, Canva es de las soluciones más accesibles para no diseñadores. Puedes componer una presentación desde su catálogo de plantillas y apoyarte en funciones de IA para crear imágenes o ajustar textos sobre la marcha.

Otra opción es Fotor, que incorpora un generador de slides con IA dentro de su suite creativa. Elige una plantilla para unificar el estilo y escribe un prompt detallado con la descripción del contenido, incluyendo imágenes o documentos de apoyo si hace falta.

Para quienes ya trabajan en el ecosistema de Google, hay una novedad útil: la creación de presentaciones en Canvas con Gemini y su exportación a PowerPoint o Google Slides agiliza la fase de borrador y te deja el tiempo bueno para pulir.

La clave de todas estas alternativas es combinar velocidad con control. Deja que la IA haga el trabajo pesado y reserva tu criterio para validar, recortar y dar el toque final. Así evitas sacrificios de calidad y ganas semanas a tu calendario.

Con todo lo anterior, ya tienes un mapa claro para trabajar más rápido y con más cabeza dentro de Presentaciones y alrededor de tu stack. Gemini acelera la generación de contenido, las referencias a Drive y el resumen de materiales; y, si lo combinas con buenas prácticas y herramientas complementarias, tus decks saldrán a tiempo y con impacto sin tener que pelearte con el reloj.

Apple ya ha decidido la gran novedad del próximo iPhone Air. Lo que no ha resuelto es el problema de diseño que le impide hacerla realidad

Actualidad en Applesfera - Jue, 06/11/2025 - 14:00

El iPhone Air lleva apenas dos meses entre nosotros y ya tenemos la primera pista concreta sobre cómo será su segunda generación. Apple está considerando meter dos cámaras traseras en el próximo Air, una característica que seguramente muchos usuarios estaban esperando en este modelo. 

El iPhone Air actual tiene una única cámara porque el espacio así lo requiere. Pero esa limitación ha sido una de las razones más repetidas por los usuarios que preferían la versatilidad de dos o tres cámaras desde el lanzamiento. Lo interesante es que este rumor llega en un contexto donde las ventas del iPhone Air no están siendo las más altas. Aún así, Apple sigue apostando por esta gama y los rumores ya hablan de cómo quiere mejorarla.

La segunda cámara llega al iPhone Air 2

Digital Chat Station ha acertado bastante con los rumores de Apple en el pasado, apunta a que el iPhone Air del 2026 tendría una cámara ultra gran angular 48 megapixeles junto a la cámara que ya tiene ahora. Sería una configuración parecida a la del iPhone 17 base. Con zoom x2, x1 y x0,5 con modo macro.

{"videoId":"x9rxj7g","autoplay":true,"title":"Samsung vs iPhone | Las dos tienen móviles finos, pero solo uno tiene el MEJOR", "tag":"iPhone air", "duration":"693"}

Eso sí, el iPhone Air 2 o iPhone Air 2026 mantendría su meseta horizontal en la parte trasera, así que ambas cámaras irían lado a lado en lugar de una encima de la otra como en el resto de iPhone.

El desafío técnico que Apple debe resolver

Aquí viene lo complicado. La meseta del iPhone Air no es una decisión de diseño por diferenciarlo de otros modelos. Es la solución de Apple para tener más espacio para la batería. Ahí dentro caben la cámara, los sensores, el procesador y todos los componentes. Eso explica por qué la autonomía del iPhone Air es tan buena siendo tan delgado.

Para meter una segunda cámara, Apple tendría que replantear cómo distribuye todo lo interno y realizar una labor de (aún más) miniaturización. Cierto es que el próximo chip A20 será de dos nanómetros y por lo tanto podrá entregar la misma potencia que el procesador actual en un espacio más pequeño, ademas de calentarse menos. ¿Pero tanto cómo para que entre una segunda cámara? Si alguien puede conseguirlo es Apple.

Cuándo lo veremos materializado

La fecha de presentación de la segunda generación del iPhone Air todavía está en duda. Lo que sí sabemos es que en septiembre de 2026 Apple presentará el iPhone 18 Pro y su primer iPhone plegable. El iPhone 18 base llegará después, en primavera de 2027.

El nuevo iPhone Air podría presentarse en cualquiera de esos momentos, o incluso en otro diferente. Lo que Apple sí tiene claro es que probablemente no le pondrá un número a este modelo. El iPhone Air será de segunda generación, pero el nombre oficial podría ser simplemente "iPhone Air" sin el "2", algo que Apple ya ha hecho antes con otros modelos. Esa flexibilidad de no estar atado a una numeración es precisamente lo que le permite a Apple decidir cuándo sacarlo sin estar vinculado al calendario del iPhone 18 estándar.

Y al final, esa misma flexibilidad también le da más margen para resolver los desafíos técnicos de los que hablábamos: diseñar un teléfono que sea ultrafino, ligero y con dos cámaras sin comprometer la batería.

En Applesfera | Nuevo iPhone plegable - Todo lo que creemos saber sobre él

En Applesfera | Nuevos iPhone 18 - Todo lo que creemos saber sobre ellos

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia Apple ya ha decidido la gran novedad del próximo iPhone Air. Lo que no ha resuelto es el problema de diseño que le impide hacerla realidad fue publicada originalmente en Applesfera por Guille Lomener .

El iPad Pro es mucho más que una tablet: súper potente, ligero y sin renunciar a una autonomía envidiable

Actualidad en Applesfera - Jue, 06/11/2025 - 12:30

Aunque hay una buena variedad de iPads, el iPad Pro es uno de los grandes favoritos de muchos, ya que gracias a su potencia, buena autonomía y calidad en la pantalla se puede utilizar para una gran variedad de tareas, incluso aquellas que resultan más exigentes para otros modelos, llegando incluso a competir con mano a mano con muchos ordenadores portátiles si lo complementas con su funda teclado. Ahora puedes encontrarlo con una buena rebaja en Amazon, dejando su precio a 989 euros.

Toda la potencia del chipo M4 sin renunciar a la autonomía

Lo primero que destaca del iPad Pro es su pantalla ultra retina XDR de 11 pulgadas, con una resolución de 2.420 × 1.668 píxeles y tecnología OLED integrado para una calidad de imagen espectacular. Su brillo tampoco decepciona con 1.000 nits y picos de hasta 1.600 en contenido HDR, permitiéndote apreciar todos los detalles incluso a plena luz del sol. En su interior encontramos el potente chip M4, junto con una memoria RAM de 8GB de RAM, capaz de ejecutar programas exigentes y con una excelente capacidad multitarea que hace que todo funcione muy fluido.

El espacio de almacenamiento de esta versión es de 256GB, pensado para los que manejan a menudo archivos más ligeros, aunque también existen otras versiones con 1TB o 2TB de almacenamiento, que además vienen acompañadas de un aumento de 16GB de RAM. En cuanto a su autonomía, es capaz de aguantar hasta 10 horas de reproducción de video. En conectividad, destaca por ofrecer WiFi 6 para una experiencia más fluida y sin caídas de conexión, que complementa además con Bluetooth 5.3.

{"videoId":"x9s6h1m","autoplay":true,"title":"Vídeo compartido por Tim Cook sobre el iPad Pro M5", "tag":"Tecnología", "duration":"6"}

En cuanto a las conexiones físicas, ofrece un USB-C, compatible con Thunderbolt y salida DisplayPort. Por otro lado, añade una cámara trasera de 12MP con gran angular, mientras que la frontal es de 12MP con función de encuadre centrado, muy útil para videollamadas o reuniones de trabajo online. Por último, añade un total de cuatro altavoces y hasta cuatro micrófonos, por lo que no tendrás problemas a la hora de comunicarte, mientras que la experiencia de sonido será de alta calidad y envolvente.

En Directo al Paladar Lidl vende por 7 euros el accesorio perfecto para proteger la vitrocerámica y añadir espacio de trabajo a la encimera Funda teclado y cristal para tu iPad Pro

Nota: algunos de los enlaces aquí publicados son de afiliados y pueden reportar un beneficio.

Imágenes | Apple, iPadPro, Amazon y Pedro Aznar de Applesfera

En Applesfera | Qué Mac comprar en 2025. Guía para elegir el ordenador de Apple que más se ajusta a tus necesidades

En Applesfera | Qué iPhone comprar en 2025. Guía para elegir el smartphone de Apple más adecuado para ti

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia El iPad Pro es mucho más que una tablet: súper potente, ligero y sin renunciar a una autonomía envidiable fue publicada originalmente en Applesfera por Álvaro Núñez .

La mejor forma de ver cómo entreno en el gimnasio la trae iOS 26.1. Por fin puedo configurar todo y ver métricas en el iPhone

Actualidad en Applesfera - Jue, 06/11/2025 - 12:00

Hubo un tiempo (muy, muy cercano) donde la configuración y registro de entrenamientos era algo exclusivo de los Apple Watch. Con iOS 26 cambió y los iPhone ya podían ir mostrando métricas en tiempo real. Con la recién lanzada iOS 26.1 se va un paso más allá. Y bendito sea.

Esta última actualización nos permite configurar entrenamientos desde la aplicación Fitness del iPhone con el único requisito de que tengamos un Apple Watch o unos AirPods Pro 3 o Powerbeats Pro 2, que serán al final el que vaya registrando mediciones como las pulsaciones o calorías quemadas. Se trata de una gran evolución, dado que nos permite configurar varios parámetros de una forma mucho más sencilla.

Cómo configurar entrenamientos desde el iPhone {"videoId":"x9qbkto","autoplay":true,"title":"Qué iPhone comprar 2025", "tag":"webedia-prod", "duration":"552"}

Una vez que tengas iOS 26.1 en tu iPhone, verás que al abrir la app Fitness aparece una nueva pestaña llamada Entrenamientos. Es en ella en la que encontrarás la posibilidad de configurar tus entrenos.

De primeras aparecerá una lista de entrenos predeterminada, poniendo los más comunes y también los que hayas realizado recientemente desde tu Apple Watch. No obstante, podrás añadir uno nuevo bajando al final de la lista y pulsando el icono +. Hay decenas de ellos, ordenados todos alfabéticamente.

En Applesfera Me he quedado dormido muchas veces "por culpa" de la alarma del iPhone. Con iOS 26.1 se añade la opción definitiva para evitarlo

Una vez los veas en la pestaña principal, verás que tienen varias opciones. Una de ellas, completamente opcional, es la de reproducir contenido automáticamente, pudiendo seleccionar una playlist de Apple Music (si estás suscrito) para que suene cada vez que inicies ese entrenamiento.

La opción que tiene un icono en forma de botón play es la que te permite iniciar el entreno. Aunque lo interesante está en la configuración de objetivos que ofrece el botón con forma de cronómetro:

  • Distancia: en entrenamientos que impliquen desplazarte (aunque sea en una cinta o bici estática), podrás configurar una distancia y el entrenamiento no se detendrá hasta que la alcances.
  • Tiempo: podrás establecer de antemano el tiempo que quieres estar dedicando a ese entrenamiento, pudiendo ser de apenas un minuto o de 23 horas y 59 minutos (por favor, no elijas esta última si no quieres romper el Récord Guinnes de agujetas). 
  • Kilocalorías: el entrenamiento no finalizará hasta que alcances un objetivo de kilocalorías quemadas, cuyo mínimo será de 5 y su máximo de 20.000.
  • Personalizado: en este apartado puedes añadir opciones de calentamiento y enfriamiento, pudiendo añadir opciones de tiempo y calorías máximas y mínimas que se deben alcanzar para finalizar ambas etapas.

Evidentemente, podrás pausar o detener los entrenamientos en cualquier momento, aunque la idea de configurar esos objetivos es la de cumplirlos. Por eso es importante que ya de antemano establezcas unos objetivos realistas que sepas que vas a poder cumplir. También es importante no quedarse corto para así no tener que iniciar otra vez el entrenamiento.

Podrás ver el entrenamiento desde el iPhone

Hasta ahora, las métricas de los entrenamientos se veían solamente en la pantalla del Apple Watch, pero ya desde la primera versión del iOS 26 es posible ver todos los datos en tiempo real en la pantalla del iPhone. Y esto es especialmente útil si no se tiene Apple Watch, pero sí unos AirPods Pro 3 o Powerbeats Pro 2, dado que ambos tienen capacidad de realizar mediciones por tener un sensor de frecuencia cardíaca.

En Applesfera Llevo años viendo gráficos de sueño que no entendía. La nueva "Puntuación de Sueño" del Apple Watch por fin me ha dicho si duermo bien o mal

De primeras, será en la pantalla de bloqueo (junto a las notificaciones) donde vayas viendo un indicador con datos básicos como el tiempo que llevas realizando el ejercicio, las kilocalorías activas o las pulsaciones. Lo mismo sucederá en la isla dinámica en aquellos iPhone que la tengan. Si pulsas en ellas, se abrirá un informe completo en la App Fitness y también desde ahí podrás pausar o detener el entrenamiento.

En Applesfera | Que los Apple Watch detecten hipertensión es importante. Y lo mejor es que solo es un paso más en el ambicioso plan de salud de Apple

En Applesfera | Así puedes monitorizar el sueño con el Apple Watch y comprobar qué tal duermes


(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia La mejor forma de ver cómo entreno en el gimnasio la trae iOS 26.1. Por fin puedo configurar todo y ver métricas en el iPhone fue publicada originalmente en Applesfera por Álvaro García M. .

Siri se volverá un 700% más potente, pero tiene un precio: 1.000 millones de dólares al año que Apple pagará por usar la IA de Google

Actualidad en Applesfera - Jue, 06/11/2025 - 10:37

Siri por fuera... ¿Google por dentro? Tras meses de negociaciones, Apple ha cerrado un pacto que refleja la realidad del momento: pagará mil millones de dólares al año a Google para que Gemini, el modelo más avanzado de su mayor rival, sea el cerebro oculto de la nueva Siri que llegará en primavera de 2026.

Así lo ha confirmado Mark Gurman, añadiendo que no habrá comunicados entre ambas empresas explicándolo. Pero cuando iOS 26.4 aterrice en los iPhone con una Siri transformada, sabremos quién está detrás del cambio: Google, cobrando por ello.

La noticia, destapada por Gurman, confirma y amplía lo que hace días ya publicamos. Pero ahora tenemos más detalles: el precio exacto, la arquitectura técnica del acuerdo, las limitaciones y, lo más importante, qué significa que Apple haya tenido que recurrir al gigante de Mountain View para que Siri empiece a ser competitiva en el mapa de la IA.

Mil millones de dólares por un cerebro prestado

Durante 2025, Apple organizó una competición interna entre dos titanes de la inteligencia artificial: Anthropic, creadora de Claude, y Google, con Gemini. Según Mark Gurman, las pruebas determinaron que, técnicamente, el modelo de Anthropic ofrecía respuestas más precisas y un mejor manejo del lenguaje natural.

{"videoId":"x9ndj38","autoplay":true,"title":"Así funciona Apple Intelligence Apple", "tag":"", "duration":"314"}

Pero Google ganó. No porque tuviera el mejor modelo, sino porque Apple necesitaba velocidad. La relación comercial preexistente entre ambas compañías (Google ya paga entre 18.000 y 20.000 millones de dólares anuales a Apple para ser el buscador por defecto en Safari) hizo que negociar con Google fuera más sencillo y viable que empezar de cero con Anthropic.

Así que ahora, cada año, Apple pagará aproximadamente mil millones de dólares a Google para que Gemini funcione como el motor central del nuevo Siri. Es una cifra colosal para el resto de los humanos, pero para Apple supone poco más de tres días de beneficios. Para que te hagas una idea, cada día ganan unos 300 millones de dólares.

Cómo funcionará: Gemini en la sombra, dentro de Apple

El acuerdo será secreto y Gemini no será visible para el usuario. Nunca veremos en la interfaz que está usando Google. Ni un logo, ni un "conectando con…". Siri seguirá siendo Siri, la interfaz será de Apple, el control será de Apple. Pero bajo el capó, Gemini estará haciendo el trabajo pesado.

Más a fondo, el modelo Gemini de Google tiene 1,2 billones de parámetros, una cifra que supera los modelos actuales de Apple. Sus tareas serán que Siri entienda el contexto de múltiples preguntas, sintetice información compleja y ejecute acciones encadenadas. Todo funcionará en los servidores privados de Apple, en su infraestructura de nube. Los datos nunca pasarán por Google. Apple ya ha asignado hardware específico de IA para soportar esta carga con chips propios de Apple Silicon.

Es un equilibrio técnico muy interesante: Google proporciona la potencia de cálculo y el modelo entrenado, pero Apple mantiene la custodia de los datos y la privacidad del usuario. Desde el punto de vista del usuario final, es como si Apple hubiera sacado de la nada un asistente mucho más inteligente. Desde el de Apple, es reconocer que necesitaba una solución que llegara ahora mismo.

Básicamente, lo que han hecho ha sido pagar por todo el conocimiento de Google Gemini, instalarlo en sus servidores y decirle a Siri: "Ahora trabajas con todo esto". Pero nada sale de casa.

China es la excepción que confirma la regla

Hay un matiz geográfico: en China, Gemini no entra. Por el bloqueo histórico de Google en el país asiático, Apple está desarrollando una versión alternativa de Siri para el mercado chino que usará modelos internos de Apple, junto con filtros desarrollados por Alibaba y posiblemente asociaciones con Baidu. Es decir, Apple está dispuesta a pagar mil millones al año a Google en mercados occidentales, pero en Asia mantiene su soberanía técnica porque, regulatoriamente, no tiene opción.

Una solución temporal con aspiraciones de largo plazo

Aquí está el matiz que Mark Gurman subraya en su informe: Apple no ve esto como una relación indefinida. Internamente, la compañía tiene intenciones de desarrollar un modelo propio de un billón de parámetros que, cuando esté listo, permita a Apple prescindir de Google.

El equipo responsable, liderado por Mike Rockwell (el hombre detrás del Vision Pro) y Craig Federighi, jefe de ingeniería de software, está trabajando en ello. Pero hay un factor que complica las cosas: Apple ha estado perdiendo talento en IA. El jefe del equipo de búsqueda con IA de Apple se marchó a Meta hace poco, y no ha sido el único empleado en hacerlo. En Apple han tenido una fuga de cerebros.

Por eso Apple necesita a Google ahora, y no está garantizado cuándo podrá prescindir de ella. Google, mientras tanto, sigue mejorando Gemini. La versión 2.5 Pro lidera la mayoría de los rankings que comparan grandes modelos de lenguaje. Alcanzar esa calidad con un modelo propio no es tarea de meses: es tarea de años. Y con el retraso que ya llevan, cuando alcancen a la IA de Google actual, ya estará la nueva versión por encima.

Lo que cambiará en Siri a partir de iOS 26.4

Cuando la nueva Siri llegue en primavera de 2026, tendremos un gran cambio. Peticiones como "encuentra el correo que me envió Carlos la semana pasada sobre el proyecto y respóndele que lo tengo listo" dejarán de ser imposibles. Siri será capaz de entender conversaciones con contexto, de conectar información entre apps, de ejecutar acciones complejas sin quedarse bloqueada en el primer paso.

Técnicamente, hablamos de pasar de 150 mil millones de parámetros (lo que Apple usa actualmente para Apple Intelligence en la nube) a 1,2 billones. Es un aumento que permite un procesamiento de contexto mucho más complejo y respuestas más naturales. Supone un aumento del 700%. Aunque muchos de nosotros solo queremos que nos entienda bien qué luz queremos apagar o qué canción queremos reproducir. Esperemos que Apple no se haya olvidado de esa parte.

En Applesfera | Nueva Siri: novedades, dispositivos compatibles y todo lo que sabemos sobre ella

En Applesfera | Apple Intelligence: todo lo que puedes hacer con la IA de Apple y qué dispositivos son compatibles 

(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();

-
La noticia Siri se volverá un 700% más potente, pero tiene un precio: 1.000 millones de dólares al año que Apple pagará por usar la IA de Google fue publicada originalmente en Applesfera por Guille Lomener .

Tráiler de lanzamiento de Farthest Frontier

Actualidad en 3DJuegos - Jue, 06/11/2025 - 10:27
Trailer promocional de Farthest Frontier

Tráiler de lanzamiento de Sonic Rumble

Actualidad en 3DJuegos - Jue, 06/11/2025 - 10:23
Trailer promocional de Sonic Rumble

Tráiler gameplay de Europa Universalis V

Actualidad en 3DJuegos - Jue, 06/11/2025 - 10:08
Trailer promocional de Europa Universalis V

Páginas

Suscribirse a Tecnoaficiones agregador