En este momento estás viendo ¿A dónde se fue el tráfico del “6.18”?

¿A dónde se fue el tráfico del “6.18”?

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:junio 19, 2025

Si cree en los rumores, así como en las filtraciones mediáticas cuidadosamente orquestadas, OpenAI podría estar preparándose para lanzar algo que podría cambiarlo todo. No solo la forma en que usamos las computadoras, sino también cómo interactuamos con la información, entre nosotros y con el mundo físico que nos rodea.

Olvídate de las pantallas. Olvídate de las aplicaciones. Olvídate de sacar una placa luminosa del bolsillo 200 veces al día. Según se informa, Sam Altman y el legendario exdiseñador de Apple, Jony Ive, están inmersos en el desarrollo de lo que creen que es el sucesor no solo del iPhone, sino de la idea misma del smartphone.

Nos dicen que no es un teléfono. No son unas gafas, ni un simple asistente de voz en una carcasa de plástico. ¿Qué es entonces? Aunque su definición es deliberadamente vaga, la visión es clara: un dispositivo discreto, posiblemente portátil y, sin duda, dotado de inteligencia artificial, que se encuentra en la intersección de la presencia, la consciencia y la utilidad: una interfaz invisible entre tú y tu vida.

Curiosamente, no se trata de dispositivos más inteligentes. Se trata de algo más profundo: la computación ambiental. Un sistema tan integrado, tan sutil y tan inteligente que prácticamente desaparece, sin dejar de saber lo suficiente como para ser útil.

Diseñando un nuevo paradigma.

Para comprender la ambición de este proyecto, basta con observar la colaboración que lo respalda. Altman es la imagen de OpenAI, la empresa detrás de ChatGPT, Sora y un conjunto de herramientas que redefinen rápidamente la interacción persona-computadora. Jony Ive es el genio del diseño industrial detrás del iMac, el iPod, el iPhone y el Apple Watch, cuya huella está presente en la electrónica de consumo moderna.

Juntos, han formado una nueva empresa bajo el paraguas de OpenAI al adquirir io, el estudio de diseño de Ive. El objetivo: crear una familia de productos nativos de IA desde cero, sin las limitaciones de las expectativas tradicionales de teclados, pantallas o tiendas de aplicaciones. Altman lo ha calificado como «el mayor logro que hemos logrado como empresa». Ive comparó la emoción con la que sintió hace 30 años al diseñar el ordenador Apple original.

El dispositivo —o, más precisamente, esta nueva categoría de dispositivos— no será solo un accesorio. Está concebido para ser un compañero o, más concretamente, un sistema. Algo que llevas, llevas puesto o tienes cerca. Algo que entiende dónde estás, qué haces y qué es lo más importante, y que actúa por ti con mínima fricción.

En una reunión privada con el personal de OpenAI, Altman lo dejó claro: esto no es un teléfono. Tampoco son unas gafas. Está diseñado para apoyarse en un escritorio, caber en un bolsillo o sujetarse a la ropa. Es ligero. Es consciente. Es ambiental. Pero lo más importante es que ni siquiera te das cuenta de que lo llevas puesto.

Quizás lo más importante es que no pretende mostrarte el futuro. Su propósito es conocerlo .

Dispositivo sin pantalla.

Entonces, ¿cómo funciona un dispositivo sin pantalla? Resulta bastante sencillo si redefinimos el concepto de interfaz.

Se espera que este nuevo producto se base principalmente en interacciones de voz y audio para su funcionamiento. Tú hablas. Él escucha. Interpreta y responde. La idea aquí es menos «Oye Siri» y más «¿Por qué no me recordaste que prometí llamar a mi madre hoy?».

Esta interfaz va más allá de comandos y consultas. Requiere contexto. Requiere memoria. Requiere intuición. No es una computadora que uses, sino que trabaja para ti.

Sin una pantalla que te distraiga o domine tu atención, el dispositivo podría estar, paradójicamente, más presente. Siempre ahí, siempre consciente, pero nunca el centro de tu atención.

Ya vemos prototipos de otras empresas que prueban ideas similares. Google ha presentado gafas inteligentes que utilizan IA conversacional y pantallas flotantes. Meta ha experimentado con Ray-Bans activados por voz. Humane intentó (y tuvo dificultades) introducir un pin con IA portátil. Pero OpenAI e Ive parecen apuntar a algo menos llamativo y más fundamental.

No es un aparato. Es un compañero.

Escuchar es la característica, no el defecto.

Para que este dispositivo sea realmente útil, necesita saberlo todo, o al menos casi todo, sobre tu vida. Eso incluye tu ubicación. Tu agenda. Tus conversaciones. Tus mensajes. Tu ritmo cardíaco. Incluso tu estado de ánimo.

En resumen, no se trata solo de un nuevo producto. Es un nuevo contrato entre humanos y máquinas. Una promesa de que, a cambio de una atención constante y una asistencia fluida, los usuarios deberán aceptar niveles de acceso sin precedentes.

Probablemente será el modelo de consentimiento más amplio en la historia de la tecnología. Para obtener valor del sistema, los usuarios deberán permitir que el dispositivo escuche, transcriba y analice continuamente su entorno. Correos electrónicos, mensajes de texto, notas de voz, conversaciones en vivo: nada está prohibido si el asistente quiere ser verdaderamente proactivo.

Muchos usuarios podrían aceptar este cambio. ¿Por qué? Porque las ventajas son enormes. Imagina un dispositivo que detecta tu frustración durante una reunión y te sugiere silenciosamente reprogramar la siguiente. O que te oye toser y te ofrece una recomendación de salud. O que observa tu silencio y te ofrece redactar una respuesta a un correo electrónico difícil.

Esta tecnología no es IA pasiva. Es inteligencia participativa . Pero también significa que la barrera para su adopción no es el hardware, sino la confianza.

Avance en la duración de la batería.

Una de las preocupaciones técnicas más inmediatas en torno a un dispositivo como este es la duración de la batería. Un teléfono puede durar un día. Una laptop, quizá dos (gracias a Apple Silicon y a los chips Qualcomm Snapdragon X Elite). Sin embargo, un asistente de IA verdaderamente ambiental y portátil debe durar días .

La buena noticia es que las piezas ya están encajando.

Los núcleos de IA de bajo consumo son cada vez más eficientes. El silicio personalizado, optimizado para el reconocimiento de voz permanente y la inferencia local, puede funcionar durante largos periodos sin necesidad de baterías voluminosas. La carga inalámbrica y los accesorios modulares para baterías podrían prolongar la vida útil sin comprometer el diseño.

Las recientes patentes de Apple sobre dispositivos «wearable loop» sugieren un formato flexible y rico en sensores, con háptica, micrófonos y retroalimentación dinámica, todo en un diseño fácil de usar y guardar. Estos wearables tipo loop podrían cambiar de forma u ofrecer funcionalidad modular, ampliando sus usos sin perder ligereza y eficiencia energética.

En otras palabras, el desafío de ingeniería no es insuperable. Lo importante es la fluidez con la que la energía, los sensores y la IA se pueden integrar en algo que la gente realmente quiera llevar puesto.

Punto de inflexión para la interacción.

El éxito o no de este próximo dispositivo probablemente dependerá de un factor crítico: el cambio de comportamiento.

Altman e Ive no solo están diseñando un nuevo producto. Buscan moldear un nuevo conjunto de hábitos: reemplazar 15 años de deslizar, tocar y desplazarse por algo más natural, más humano.

En lugar de desbloquear tu teléfono y escribir en una barra de búsqueda, simplemente preguntas en voz alta: «¿Qué hay de nuevo en mi vuelo?». En lugar de mirar tu calendario, murmuras: «¿Hay algo que pueda reprogramar hoy?».

En lugar de navegar por los canales de noticias, escuchas un resumen silencioso de las cosas que te importan y ignoras el resto.

El desafío, por supuesto, es cultural. Las personas no solo están apegadas a sus teléfonos. Son adictas a la dosis de dopamina de las notificaciones, la comodidad del control visual y la ilusión de productividad. Reemplazar eso con algo controlado por voz, proactivo y sin pantalla no es solo una renovación de la interfaz de usuario. Es un reinicio psicológico.

Pero si funciona, quizá se sienta menos como usar una computadora y más como tener un mayordomo invisible que realmente te entiende.

El futuro zumba, no brilla.

Curiosamente, la WWDC 2025 de Apple se celebró y pasó sin ningún indicio de un dispositivo informático ambiental dedicado, a pesar de las crecientes expectativas de la industria.

Si bien Apple presentó actualizaciones de software notables (como su plataforma “Apple Intelligence” y funciones de continuidad), evitó revelar algo que pudiera competir con los dispositivos de inteligencia artificial sin pantalla emergentes, como Pin de Humane o las gafas inteligentes de Meta.

Sin embargo, Apple podría estar aún sentando las bases entre bastidores. Una patente reciente describe un wearable flexible con forma de bucle, con sensores, micrófonos y tecnología háptica, que podría servir como un discreto compañero de IA. El diseño insinúa el posible interés a largo plazo de Apple en la computación ambiental, incluso si no hay un producto inminente.

Por el contrario, el equipo de Sam Altman y Jony Ive avanza con ambiciones audaces para ofrecer un dispositivo de IA siempre activo que renuncia a las pantallas tradicionales y adopta la detección de contexto continua.

La moderación de Apple puede reflejar un enfoque cauteloso respecto de la confianza del usuario, la duración de la batería y la privacidad, pero también podría correr el riesgo de quedarse atrás si un competidor define la categoría primero.

Mi pregunta clave es si la estrategia lenta de Apple, que prioriza la privacidad, resultará más sensata a largo plazo o si perderá la oportunidad mientras otros configuran el futuro de la IA ambiental. Por ahora, la carrera está en manos de quienes están fuera de Cupertino, y OpenAI podría ser la primera empresa en salir.

Seamos realistas: en un mundo donde la IA ya no se limita a teclados y pantallas, la próxima revolución puede surgir no de lo que vemos , sino de lo que apenas notamos .

Un dispositivo que se anticipa a ti.

El próximo wearable de OpenAI —o dispositivo ambiental, compañero o como sea que se le llame— bien podría ser el inicio de ese cambio. Si tiene éxito, marcará el momento en que la informática dejó de exigir nuestra atención y empezó a apoyarla, cuando pasamos de interactuar con la tecnología a convivir con ella.

Eso no ocurrirá de la noche a la mañana, y los riesgos, especialmente los relacionados con la privacidad, la vigilancia y la dependencia excesiva, serán reales. La decisión de optar por un dispositivo como este requerirá un nivel de confianza tan grande y completo que aún no tengo claro si la mayoría de los consumidores querrán hacerlo a menos que los beneficios sean igualmente sustanciales y los impulsen a dar ese paso.

Sin embargo, si Sam Altman y Jony Ive aciertan, algún día el teléfono inteligente podría parecer como la máquina de escribir actual: elegante, icónico y fundamentalmente obsoleto.

Tal vez, en un futuro no muy lejano, cuando alguien te pregunte: «¿Dónde está tu teléfono?», sonrías y digas: «Ya no uso uno».

Porque para entonces, ya no lo necesitarás. El dispositivo —pequeño, ambiental y siempre alerta— ya estará contigo. No en tu mano ni en tu bolsillo, sino en tu entorno. Escuchando. Aprendiendo. Anticipando.

Si estoy en lo cierto, este compañero invisible no solo cambiará nuestra forma de calcular, sino que cambiará lo que es la informática . No tendrás que preguntar. Ya lo sabrá.