Vayamos por partes. Ya no se dice más NUEVAS tecnologías, porque de «nuevas» ya no tienen nada. Sin embargo, ésta que vamos a describir es nueva porque acaba de llegar. Aún así, tenemos algunos problemitas con ello. ¿Una nueva tecnología es algo que nunca se vio o puede ser la fusión de varias tecnologías que ya conocemos y que, al fusionarse, crean una tercera, o es simplemente un recurso marketinero para llamar a algo viejo con un nuevo nombre? Pues bien, así estamos. Intentando ser claros.
La promocionada tecnología futurista que presentó Nissan en la famosa reunión Consumer Electronics Show (CES) en Las Vegas es, para mí, una fusión de varias tecnologías ya conocidas. NO una nueva. Pero como venimos diciendo hace varios años, a la gente le encanta decir que inventó o creó algo que ¡ya está inventado! Pero vayamos a lo nuestro y expliquemos lo que, hasta ahora, es la revolución. Su nombre mismo lo dice: Invisible a visible… ¡Hace mil años que erstamos visibilizando lo invisible (por eso ya no decimos «nuevas» tecnologías)!. Pero bue… allá vamos.
Nissan presentó el coche del futuro. Para que éste funcione en todo su esplendor, es necesario no UNA tecnología sino una serie de tecnologías y cada una de ellas, a su vez, y como siempre, necesita una infraestructura específica.
“Invisible-Visible (I2V) es un concepto desarrollado por Nissan gracias a la tecnología Smart Mobility. Consiste en apoyar a los conductores almacenando datos de los sensores externos e internos del vehículo y los de la nube. Específicamente, el sistema puede rastrear el entorno inmediato del vehículo y anticipar obstáculos futuros, incluso aquellos detrás de un edificio o después de un giro”.
“Tenga en cuenta que I2V funciona con la tecnología Omni-Sensing de Nissan, que sirve como un centro de datos en tiempo real para las condiciones del tráfico, el entorno y el interior del vehículo. La tecnología SAM (Seamless Autonomous Mobility) analiza las condiciones de las carreteras con información en tiempo real, mientras que el sistema de conducción semi-autónomo ProPILOT proporciona información sobre el entorno del vehículo”.
En palabras simples, tu auto está hiper conectado, te muestra videos en 360º, recibe información de la circulación (tránsito), te avisa si se te cruza un peatón desprevenido o te alerta de que estás muy cansado y que es hora de tomarte un cafecito.
Futurista no me parece el coche, futurista me parece creer que es posible en un futuro cercano. Me atrevería a decir que solo en grupos de elites o “barrios cerrados”, para un corpus limitadísimo esto podría ser posible en breve. Lo vivimos día a día con cosas mucho más cotidianas: ¿netbooks sí o no? Me limito al ámbito de la educación. Y así hace 15 años, más o menos, venimos cuestionando o refutándonos con la respuesta. Todo muy lindo. Pero sin conectividad ni Kirshner, ni Macri, ni el Papa.
Sin infraestructura, los sueños, sueños son. Y el cochecito Nissan me parece que necesita una infraestructurón.
Pero vayamos parte por parte o mejor dicho tecnología por tecnología:
Implicaría, en este proceso a las siguientes tecnologías, dispositivos, sistemas, etc.: Realidad aumentada + Internet de los objetos + sensores + la nube + inteligencia artificial + google glass
¿Alguien tiene esa infraestructura? No lo creo. Divino, insisto. Pura envidia la mía. Pero, doy dos ejemplos:
– para la Internet de los objetos necesitamos, mínimamente, que el mundo esté más o menos conectado.
– para utilizar la nube (cloud), necesitamos un repositorio capaz de albergar una información infinita (una super requete super nube). El 90% de los mortales todavía no podemos tener un Google drive o un Dropbox que alcance para nuestros propios documentos (de manera gratuita y natural) …
Recapitulando: se combina el mundo real con datos que te llegan “de afuera”, con data digital (realidad aumentada). Esta información se va almacenando en un espacio virtual que llamamos la nube (cloud). El conjunto de estas variables transmite al vehículo lo que está fuera de su alcance (físico, real, VISIBLE) y le recrea todas las posibilidades (realidad virtual y realidad virtual con videos 360º) que, habitualmente, no estaría a su alcance naturalmente. Se conformaría un metaverso, concepto que se empezó a usar cuando nace la realidad virtual y que refiere a un concepto ya bastante viejo que fue utilizado en second life.
“El término METAVERSO, se lee por primera vez en la novela Snow Crash de Neal Stephenson (1992), para referirse a un mundo virtual. En el texto, el Metaverso no es un juego sino una alternativa mejor a una vida real. Esto lo hemos visto en varias películas. Recuerden, por ejemplo, la empresa que se le presenta al personaje de Tom Cruise en Vanilla Sky (2001). El metaverso deviene una especie de espacio en el que el hombre puede reproducir, re-construir varios o todos los aspectos de un mundo real y en el que se pueden simular y re-construir también los actos comunicativos, los sentimientos, las relaciones, etc.”.
En este caso, los avatares típicos de los metaversos serán utilizados e integrados en los autos como alguien de la familia o un amigo en el que el conductor puede encontrar compañía o asistencia.
Entonces, y como primera alusión al nombre de la nueva tecnología es que, repetimos, un conductor, en su auto, obtendrá información que habitualmente sería imposible que conociera (invisible) y que estará dada por varios elementos exteriores virtuales.
La experiencia deviene tridimensional y definitivamente aumentada.
Esto no termina acá, recuerden: Realidad aumentada + Internet de los objetos + sensores + la nube + inteligencia artificial + google glass
Con los sensores que se incluyen, apelamos a la Internet de los objetos. En pocas palabras, y para seguir de un tirón, la IoT se refiere a objetos que están conectados (no personas) y a sensores que detectan valores (falta de agua, de comida, de humedad, sonidos, etc.) que permiten actuar en función de ellos (para mejorarlos, modificarlos, etc.).
Recuerden que comentábamos el temita de poder, por ejemplo, identificar si un peatón cruza mal, si llueve (o dejó de llover) y si la calle está resbaladiza, entre otras cosas (sensores). El coche termina siendo como un centro al que le llega una recopilación de datos útiles para un conducir tranquilo. Obvio, todo en tiempo real.
Anuncia Nissan “La tecnología mapea un espacio virtual de 360 grados alrededor del vehículo para proporcionar información sobre cosas como el estado de las autopistas e intersecciones, la visibilidad, la señalización o los peatones cercanos. También puede monitorear a las personas que se encuentran dentro del vehículo mediante el uso de sensores interiores para anticipar mejor cuándo pueden necesitar ayuda para encontrar algo o tomar un café para mantenerse alerta”.
Puedo repetir este texto e ir agregando qué tecnología YA CONOCIDA, se implementa. Hagamos el ejercicio:
“La tecnología mapea un espacio virtual de 360 grados (Realidad virtual con video 360) alrededor del vehículo para proporcionar información sobre cosas (Realidad aumentada) como el estado de las autopistas e intersecciones, la visibilidad, la señalización o los peatones cercanos (Internet de los objetos). También puede monitorear a las personas que se encuentran dentro del vehículo mediante el uso de sensores interiores para anticipar mejor cuándo pueden necesitar ayuda para encontrar algo o tomar un café para mantenerse alerta”. Toda esa información se encuentra en la nube (cloud). Y son, en ocasiones, los avatares los que interactúan para dar esa información (metaverso).
Acá llegamos al trabajo colaborativo, que ya conocemos también. Lo que me sirve a mí, le puede servir a otro en cualquier momento. Si a mí me dijeron que el semáforo de Rivadavia y Acoyte no funciona… al que viene detrás de mi mañana, también puede servirle. Todo eso… ¡a la nube!
“La información proporcionada puede recopilarse con Omni-Sensing y almacenarse en la nube para que otras personas que visiten la misma área puedan acceder a la guía útil.”
Esta información se visualiza como superpuesta… Ay google glass, me suena, me suena. “Durante la conducción manual, I2V proporciona información de Omni-Sensing como una superposición en el campo de visión completo del conductor. La información ayuda a los conductores a evaluar y prepararse en distintos escenarios, como esquinas con poca visibilidad, condiciones irregulares de la superficie de la carretera o tráfico que se aproxima”.
Impresionante, volver visible lo invisible… Eso ya lo veníamos haciendo con las tecnologías citadas. Pero si logramos una décima parte de lo que Nissan propone, con este mix de tecnologías…estamos, decididamente, en el futuro.
PD: Igual, me da un poquito de miedito.
Deja tu comentario