Magia Moderna

Vivimos en tiempos increíbles, hasta podría decirse que son mágicos, pero nos acostumbramos a que sea así y ya no nos damos cuenta.

Uno puede comprar un lápiz por menos de Gs. 500 (unos 6 centavos de dólar), sin embargo, NADIE, ninguno de los 8 mil millones de humanos puede construir ese lápiz por si solo. En ese humilde lápiz están la mina de grafito, arcilla y grasa ensamblados en la proporción adecuada moldeados en un cilindro de 2 mm de diámetro, las 2 mitades de madera pulida que sostienen la mina, la cola para unir las mitades, el metal que sostiene la goma, el caucho usado en la goma de borrar, la pintura del exterior, las cuchillas para el afilado de la punta, el montado de todas las partes y todo lo que implica el empaquetado, sin contar todo lo necesario para que cada una de las partes llegue a la fábrica, y luego de construido, el producto terminado llegue tus manos, a través de una compleja cadena que involucra vehículos terrestres, marítimos, tal vez incluso aéreos, de varios tamaños y formas, contenedores, grúas, canales interoceánicos, ríos dragados artificialmente para hacerlos navegables, depósitos, tiendas de venta y ni qué decir la cadena de pagos donde el dinero con el que pagaste el lápiz en el punto de venta, se junta con otros, para que luego vayan a un banco, donde el depósito queda como un registro en una base de datos, hasta que algo o alguien envíe una orden que le indica al banco que descuente un valor determinado, debitando ese monto y acreditándolo en otro banco de otro país en otra moneda, para que finalmente, vuelva a haber un débito de ese segundo banco y un crédito en un tercer banco posiblemente en una tercera moneda; sin contar con los procesos de conciliación entre todas esas operaciones financieras, ni los procesos contables administrativos e impositivos, ni las probablemente miles de personas que de alguna manera u otra estuvieron involucradas.

«I, pencil» de Leonard E. Read

Parece que ya nada nos sorprende. Tal vez por desconocimiento, tal vez por falta de interés, o tal vez porque ya es rutina. La magia nos rodea, pero ya no la percibimos.

Ya normalizamos que hoy uno simplemente pueda decir en voz alta, «OK Google, ¿cómo va a estar el tiempo mañana?» y a los pocos segundos tengamos una respuesta.

Google Assistant

A nadie parece maravillar lo que ocurre en esos segundos: mi voz mueve moléculas de aire cercanas, que a su vez empujan otras moléculas de aire y así por delante, como ondas en un lago, hasta que unos milisegundos después llegan a la membrana del micrófono en el smartphone que también comienza a vibrar y a su vez activa un circuito eléctrico generando una minúscula corriente eléctrica que es convertida en pulsos eléctricos para que puedan ser manipulados más fácilmente de manera digital.

Componentes de un smartphone

La llegada de estos pulsos eléctricos dispara un frenesí de actividad eléctrica en el circuito del teléfono, controlado por varias capas de software, cada una con una función específica. Los pulsos eléctricos ya convertidos en código binario (bits) se almacenan en la memoria del celular, alterando el estado de minúsculos transistores del tamaño de moléculas de ADN aplicando fuerzas eléctricas para atraer o repeler electrones según fuera necesario. En algún momento, la información binaria (unos y ceros) llega al programa responsable de controlar las acciones siguientes de qué hacer con el hilo de unos y ceros. Usando fórmulas matemáticas complejas traducidas a rutinas de software, el programa responsable determina que una secuencia de la cadena de bits se acerca con un porcentaje relativamente alto de probabilidad al patrón matemático de la frase disparadora «OK Google», indicando que debe “escuchar” el resto de la secuencia de bits para convertirlos en “palabras clave” de manera a tratar de interpretar la “intención” de la frase, para luego tomar una acción que puede implicar comunicarse con servidores en la nube para su procesamiento y eventualmente obtener una respuesta.

Diagrama básico de reconocimiento de voz

Ahora que el programa de control «sabe» que tiene que responder a mi intención sobre el clima, también sabe que tiene que conocer mi ubicación geográfica. Por suerte, existe una constelación de más de 24 satélites que orbitan la Tierra 2 veces por día a unos 20 mil km de altura a una velocidad de 14 mil km/h. Cada satélite lleva 4 relojes atómicos que utilizan las transiciones entre los diferentes niveles de energía de los electrones como si fuesen péndulos ultra precisos para medir el tiempo. Los satélites de GPS transmiten su medición del tiempo y un circuito electrónico en el teléfono, compara los tiempos recibidos de al menos 4 satélites y mediante cálculos matemáticos puede obtener la longitud y latitud en el planeta. Sin embargo, debido a que el tiempo de los relojes en los satélites transcurre más lento que el medido por un reloj en la superficie por causa de la velocidad relativamente alta de los satélites y que por otro lado, el tiempo transcurre más rápido que sobre la superficie debido al gradiente en el espacio-tiempo causado por la masa de la Tierra, es necesario que el sistema de GPS haga ajustes usando las teorías de Relatividad Especial y General de Einstein para poder tener mediciones de tiempo precisas.

Funcionamiento del GPS

Las instrucciones del programa de control disparan una cascada de actividad en otros circuitos del celular, responsables por la interpretación de la cadena de bits que representa la señal eléctrica de las vibraciones captada por la membrana del micrófono para poder determinar la intención. Luego de complejos y repetitivos cálculos matemáticos determinados por diferentes algoritmos, se produce otra cadena de bits distinta que a su vez generan una señal eléctrica completamente diferente a la que fue producida originalmente por el micrófono. Esta nueva cadena de bits, pasa por otro circuito y otras instrucciones que la divide en paquetes, preparándolos para viajar. La señal eléctrica circula a través de una antena sacudiendo suavemente el campo electromagnético que permea todo el Universo. Estas imperceptibles vibraciones del campo electromagnético, completamente invisibles para los humanos, se repiten miles de millones de veces por segundo, propagándose a velocidad luz en todas direcciones. Esta agitación se suma y se mezcla con las provenientes de otras fuentes que interactúan con el campo electromagnético: otros dispositivos celulares, equipos de WiFi, radar, radios AM/FM, microondas, radar, satélites, GPS, TV, incluso el propio Sol.

Representación de la transmisión ente teléfono y estación base manipulando el campo electromagnético

A mil metros de distancia, la antena de una estación base, respondiendo a las oscilaciones del campo, comienza a ondular en sintonía con la señal irradiada por la antena de mi teléfono, ahora un millón de veces más tenue.

Las fluctuaciones captadas por la antena son convertidas en una corriente eléctrica que es amplificada y reconstruida, para luego extraer los bits que representan los paquetes que contienen la cadena de bits que contiene la codificación de la interpretación de la frase, para volver a re-empaquetarse en otro tipo de secuencia de bits que después terminan como pulsos de luz láser que viajan rebotando por las paredes de un tubo de vidrio flexible fino como un pelo humano, tal vez por decenas de kilómetros en su camino al corazón de la red móvil. En dicho trayecto, es posible que haya algunos saltos, donde la señal ahora óptica deba ser amplificada y regenerada varias veces para evitar que se degrade, sin contar con puntos donde estos y otros paquetes sean agregados para ser transportados por enlaces de mayor capacidad, equivalente a contenedores que pasan de camiones a inmensos barcos cargueros.

Luz de láser dentro de una fibra óptica

Eventualmente, los paquetes llegan a un equipo llamado ruteador que se encarga de encaminarlos según ciertas instrucciones, otras secuencias de bits, que vienen junto con los paquetes. Cada paquete es tratado de manera individual, de manera que la secuencia de bits que representa la intención de la frase recibida por el teléfono, a esta altura separada ya en varios paquetes, pueda ser que sea enviado por rutas distintas en su camino a la nube. Miles de millones de paquetes son enrutados por segundo. Solo algunos de esos paquetes corresponden a los enviados por mi teléfono. Durante este proceso, los pulsos de luz se convirtieron a pulsos eléctricos, que viajan por un circuito construido de un material semiconductor, típicamente fabricado de silicio, elemento químico que se encuentra en la arena y creado hace miles de millones de años durante los últimos días de vida de una estrella decenas de veces más masiva que nuestro Sol.

Capas del ciclo de vida estelar

Los átomos de estos semiconductores están configurados en un entramado tridimensional y sus propiedades fueron alteradas por diseño para proveer exactamente las características necesarias para su funcionamiento.
Es posible, que haya varios ruteadores en el camino, probablemente de distintos fabricantes que se tuvieron que poner de acuerdo para que al menos en algunos puntos haya un funcionamiento estandarizado.

Vista molecular de un transistor

Eventualmente los paquetes se vuelven a convertir en pulsos de luz para hacer un viaje de miles de kilómetros a través de una fibra óptica submarina (hay más de 1 millón de km de cables submarinos en servicio, suficiente para dar más 300 vueltas al mundo), hasta que finalmente llegan a un gigantesco datacenter con cientos de miles de computadoras llamadas servidores donde convergen ya ordenados correctamente a un programa que está corriendo de manera distribuida en miles de nodos, los cuales a su vez son programas que simulan ser computadoras, de manera que la cantidad disponible de computadoras en el datacenter sea aún mayor.

Sección trasversal de un cable de fibra óptica oceánico

Dentro de esa gigantesca muñeca Matrioshka, de capas de abstracción, sobre capas de abstracción de software, la cadena binaria que representa la intención obtenida del procesamiento de la codificación digital de los pulsos eléctricos captados por el micrófono de mi teléfono finalmente llega a destino. Como consecuencia, otros programas se disparan, generando a su vez una miríada de actividad en los circuitos electrónicos del servidor, equipos de comunicación, cables, fibras ópticas, equipos de almacenamiento de datos, etc. En algún momento, los valores necesarios para responder la pregunta inicial (ej: temperatura máxima, mínima, unidad de medida, etc.) son leídos de células de memoria de discos duros de estado sólido, en las que los electrones de sus átomos, mediante el efecto de túnel cuántico, han quedado atrapados de forma tal que seguirán “presos” aún cuando se corte la energía.

Datacenter

Ahora se inicia el proceso de retorno, donde los datos necesarios para responder la pregunta siguen un complejo y tortuoso camino similar, desde la nube al teléfono, durante el cual, campos eléctricos y magnéticos se manipulan en todo tipo de medios: semiconductores, conexiones de oro y platino, cables de cobre, coaxiales, fibras ópticas, ondas de radio, para producir el efecto deseado.

Ondas de presión causadas por la vibración del audio del parlante

Pocos segundos después, la aplicación que inició toda el proceso recibe la respuesta y genera una señal eléctrica que mueve el diafragma del parlante del smartphone que a su vez mueve las moléculas de aire que lo rodean, generando una onda de presión que se propaga por el aire, hasta entrar a mi oído externo a través de un pasaje estrecho llamado “conducto auditivo” que llega hasta el tímpano.

Partes del oído


El movimiento de las ondas sonoras hace que el tímpano vibre y a la vez transmita estas vibraciones a tres huesecillos diminutos del oído medio (llamados martillo, yunque y estribo). Los huesecillos del oído medio amplifican o aumentan las vibraciones de sonido y las envían a una estructura en forma de caracol llena de líquido (la cóclea), donde se forman ondas que viajan a lo largo de la membrana basilar. Las células ciliadas “bailan” con el movimiento de la ola. Al moverse hacia arriba y hacia abajo, unas proyecciones microscópicas parecidas a cerdas (conocidas como estereocilios), que se encuentran encima de las células ciliadas, se topan con una membrana sobresaliente y se inclinan. Esta inclinación hace que se abran unos canales que parecen poros, que están en las puntas de los estereocilios. Cuando esto sucede, ciertas sustancias químicas entran en las células, generando así una señal eléctrica. El nervio auditivo lleva esta señal eléctrica al cerebro, que la convierte en sonidos que podemos reconocer y entender: «Mañana en Asunción estará soleado con una máxima de 34° y una mínima de 21°».

https://platform.twitter.com/widgets.js

https://platform.twitter.com/widgets.js

5G

Andan pues diciendo que 5G está causando desde muerte de pájaros hasta COVID-19 y hace unos días atrás me preguntaron si era posible, entonces, me pareció que era una buena oportunidad para explicar el tema.

Image
5G es la quinta generación de tecnología celular que se está instalando en algunos países y en algún momento (2021~2023) debería llegar a nuestro país. Es el sucesor de la tecnología actual (4G) y sus especificaciones son: alta velocidad (10~100x 4G), baja latencia (en el orden de milisegundos respecto a los cientos de ms de 4G), alta densidad (100x más dispositivos conectados que 4G), alta eficiencia en potencia (90% menos consumo de energía), entre otras.

5G utiliza bandas de frecuencia del campo electromagnético en múltiples «capas»:

  • la capa de cobertura: frecuencias inferiores a 1 GHz, siendo 700 MHz la más ‘popular’
  • la capa de capacidad: frecuencias entre 1 y 6 GHz, siendo 3.5 GHz la más ‘popular’.
  • la capa de alta velocidad: frecuencias entre 6 y 100 GHz, siendo 26~28 GHz la más ‘popular’. A esta banda de frecuencias también se le conoce con el nombre de ondas milimétricas (mmWave)

Las ondas de baja frecuencia tienen la propiedad de poder llegar más lejos y atravesar obstáculos como paredes y concreto más fácilmente que las de altas frecuencias que se atenúan mucho más rápido, pero por el contrario, las ondas de baja frecuencia no pueden transportar tanta información como las de altas frecuencias. Por eso es que el WiFi de 2.4 GHz tiene mejor cobertura (llega más lejos) que el WiFi de 5 GHz, pero es más lento.

Image

Las frecuencia de las capas de capacidad y alta velocidad de 5G no pueden propagarse muy lejos y por eso se necesitan muchas antenas, y es común ver que se usen los postes de luz de las ciudades como los mástiles de las antenas de 5G.

Image
En pleno siglo XXI, mucha gente sigue pensando que su signo del zodiaco tiene influencia en su vida, así que no es raro pensar que le tengan «miedo» a esas antenas que pronto van a estar por todos lados en las ciudades.

Las antenas de 5G, como las de 4G o las de WiFi, lo que hacen es irradiar ondas en las frecuencias definidas manipulando el campo electromagnético de manera que la información llegue hasta y desde los dispositivos, como teléfonos celulares, que a su vez también tienen una (o más) antena(s) y que también excitan el campo electromagnético para enviar y recibir ondas que transportan llamadas, mensajes y paquetes de datos cuando vemos Netflix o escuchamos Spotify o miramos Instagram.
Sin antenas, no hay ningún tipo de tecnología inalámbrica: no hay radio AM, ni FM, ni TV, ni radio o TV satelital, ni WiFi, ni telefonía celular, ni Bluetooth, ni radares, ni walkie-talkies, ni GPS, ni portones a control remoto,…

Image

Pero, ¿qué es el campo electromagnético? Todo el Universo está «inmerso» en un campo electromagnético (EM), cuyas excitaciones se manifiestan en formas de ondas que vemos (luz), o como ondas que manipulamos para transmitir AM/FM, TV, WiFi, telefonía celular (ondas de radio), o como ondas que se usan para tomar radiografías (rayos X).

Image
Estas ondas «vibran» y a eso se le llama frecuencia y se mide en Hertz (Hz) que es ciclos («vibraciones») por segundo. 1 MHz (megahertz) es una onda que se repite 1 millón de veces por segundo. Como las ondas se propagan a través del espacio (a la velocidad de la luz) también tienen una «longitud» que se mide en metros. Una onda que vibra a razón de 1 MHz tiene una longitud de onda de 300 m.

Image

Cuanto más alta la frecuencia, menor es la longitud de onda, y más alta la energía de una onda.
Una fuente que emite ondas electromagnéticas se dice que «irradia» o «emite radiación electromagnética» (que es distinta a la radiación de los elementos radioactivos usados en centrales y bombas nucleares ☢).

Image

El Sol es la fuente principal de radiación electromagnética en la Tierra e irradia en todo el espectro desde frecuencias muy bajas, hasta muy altas.

Image

La parte de esa radiación que podemos ver con nuestros ojos le decimos espectro visible cuyos colores van del rojo pasando por el naranja, amarillo, verde, azul, violeta, y sus frecuencias están entre 400 THz (color rojo) y 800 THz (color violeta), donde 1 THz (teraherz) es 1 billón de ciclos por segundo, o sus equivalentes 740 a 380 nm (1 nanometro es la mil millonésima parte de 1 metro).

Image

A las ondas con frecuencias inferiores a las del color rojo (que no podemos ver) le llamamos infrarrojas (se usan en el control remoto de la TV o aire acondicionado, o en las cámaras de visión nocturna o cámaras para medir temperatura) y a las ondas con frecuencias superiores a las del color violeta (que tampoco podemos ver) le llamamos ultravioleta (UV).

Image

La exposición prolongada a radiación infrarroja produce aumento de la temperatura y puede causar insolación y la exposición prolongada a radiación UV produce mutaciones en las células de la piel que pueden causar cáncer.

Image
Las frecuencias utilizadas en 5G son mucho más bajas que las que tienen la energía necesaria para causar daños a la salud. A todas las fuentes que emiten radiación electromagnética en frecuencias inferiores a las del espectro como no tienen suficiente energía para «patear» a los electrones de sus átomos, se les llama radiación NO ionizante.

Image
Se conoce el espectro electromagnético desde 1860 con las ecuaciones de Maxwell. Las primeras transmisiones de radio se hicieron al inicio de 1900s con radios comerciales iniciando en los 1920s.

Image

Desde entonces, la tecnología ha avanzado sin tregua y hoy tenemos una habilidad sin precedentes de manipular el campo electromagnético que sumado al conocimiento del funcionamiento de átomos y elementos de la tabla periódica, permiten las aplicaciones que tomamos por sentado en nuestra vida actual: radio AM/FM, transmisiones satelitales, telefonía celular, fibras ópticas, cámaras digitales, Internet, pantallas, lásers, computadoras, smartphones, imágenes de rayos X y resonancia magnética, robots, computadoras cuánticas y quien sabe cuántas cosas nos esperan.

Image


Si pudiésemos ver el campo electromagnético.

https://platform.twitter.com/widgets.js


El post en formato de hilo de Twitter.

https://platform.twitter.com/widgets.js


Recién vi este vídeo de @AsapSCIENCE que hace un muy buen resumen de la tecnología 5G, las radiaciones de radiofrecuencia (RFR), incluyendo los artículos y estudios sobre el impacto en la salud y algunas teorías de conspiración.

La llegada del Cucu-Uber

Uber fue creada en el 2008 con el concepto de innovar el servicio de transporte de pasajeros con tecnología. Aquí está la presentación original que usó Uber para conseguir inversores.
La empresa proveía una plataforma tecnológica que unía gente con autos con gente que quería trasladarse y cobraba una comisión por la transacción.
La tecnología permitiría hacer que esta experiencia sea mejor y más eficiente que la que había en uso, incorporando temas como valoración de autos, choferes y pasajeros (ej: este pasajero subió borracho, este pasajero vomitó y me ensució el auto, este chofer fue maleducado, este auto estaba perfecto y limpio, etc.), tiempos de respuesta más confiables, pagos sin fricción, mayor rotación, etc.
La empresa, que sigue siendo privada (aún no cotiza en bolsa), tuvo una aceptación fenomenal de parte de los inversores, que pasó de valer $4 millones a cerca de $50 mil millones actualmente. La aplicación y el servicio también tuvieron una aplastante aceptación por parte de los usuarios, que están por el orden de 50 millones/mes a nivel mundial, en 450 ciudades en 78 países (ver fuente).
Sin embargo, no todo es color de rosa en Uber, que tuvo un tumultuoso 2017: casi toda la plana ejecutiva fue reemplazada, el co-fundador y CEO Travis Kalanick fue obligado a renunciar, tiene demandas por robo de propiedad intelectual concerniente a sistemas autónomos de manejo (self driving car), una cultura de empresa «agresiva, machista», entre otras cosas.
Incluso en Londres, donde el servicio de taxi es considerado generalmente bueno y los conductores tienen altísimas exigencias, la entrada de Uber les forzó a hacer cambios: a adaptarse. Uber, por su parte, tuvo que ajustar sus prácticas a la regulación existente. El propósito del regulador (quien sea la autoridad competente) siempre debe ser ir en pro de mejorar los beneficios a los usuarios.
En México y otras partes de América Latina, también se usa Easy Taxi, que le hace la competencia a Uber y que ahora tiene inversiones de Didi, el «Uber» de China.
En pocos años será normal ver vehículos autónomos (sin conductores) de Uber, quien gracias a sus miles de millones de viajes (rides) tiene información sobre tiempos, patrones de uso, rutas congestionadas y un montón de otros datos vitales para maximizar la utilización de su flota y extraer cada centavo adicional de lucro donde sea posible.
No creo que ningún paraguayo, usuario del transporte público, o de taxis diga que está contento con la situación actual. Salvo excepciones (que siempre hay), en general los taxis están en malas condiciones, los conductores son maestros para evadir todos las normas de tránsito (me consta).
Cualquier posibilidad de mejora que se le ofrezca a este mercado será bienvenida, ya sea de la mano de Uber o de cualquier otro. La tecnología es como el sol: no se tapa con «la mano, con una reglamentación, o una ley». Uno se adapta o queda atrás.
Con eso no estoy abogando porque Uber (o cualquier otro) se salte regulaciones (control de autos, seguro contra accidentes, control de conductores, licencias, seguridad social de choferes, etc), pero los paraguayos nos merecemos un mejor servicio, más opciones y alternativas. Los monopolios no funcionan.
Lastimosamente, la actitud de los taxistas no muestra que estén del lado de sus clientes. Todo lo contrario.

15 años

A veces decimos que los cambios cuestan, que es difícil acostumbrarse a los cambios, que somos animales de costumbre. Sin embargo, algunas prácticas sociales fueron modificadas radicalmente en tan solo unos pocos años.

En 2001, el mundo estaba conmovido por los hechos del 11 de Setiembre; mientras que en el mundo tecnológico:

  • Apple introducía el MacOSX (para sus computadoras que aún usaban el procesador PowerPC), y el iPod original con disco rígido de 5GB, capacidad de 1000 canciones, interfaz FireWire, iTunes 1.0 sin el Music Store.
  • Microsoft introducía el Windows XP, mientras que Steve Ballmer decía que: Linux is a cancer.
  • La implosión de las punto com todavía era fresca.
  • Empezaban a aparecer los primeros teléfonos TDMA con WAP y los primeros teléfonos GSM con GPRS y algunos muy pocos con cámara.
  • Algunos descargaban MP3 de Napster y Kazaa.
  • El pen drive aún no se llamaba así, era muy raro (había salido en 2000) y con suerte tenía 8 MB.
  • Las cámaras digitales eran todavía una novedad y difícilmente tenían más de 3 Mpx.
  • Nacía la Wikipedia.
  • Una PC para la casa (Compaq Presario 8000z) “crème de la crème” tenía: 1.53-GHz AMD Athlon XP 1800 processor, 128MB de memoria DDR y 80GB hard drive s un precio de $2,770.
  • HP Omnibook 6100: 15-inch SXGA+ LCD, 1.13-GHz Pentium III processor, 256MB of RAM, 30 GB HDD, bus 133 MHz, 802.11b adapter, 2.8kg. ($3,600).

En Paraguay:

  • Tigo se llamaba Telecel y junto con Personal eran TDMA. El teléfono del momento era el Nokia 8260. Vox y Copesa (luego Porthable, CTI y Claro) ya eran GSM.
  • El Tiempo de Aire se cobraba por minuto y costaba USD 0.42.
  • El SMS bidireccional apenas estaba empezando.
  • Había 1.000.000 de usuarios celulares, 317 mil conexiones de línea fija, 250 mil computadoras, entre 60 a 100 mil usuarios de Internet y la tecnología de acceso predominante era dial-up (Telesurf Wireless había sido lanzado en 2000.
  • Antelco ese año pasaba a ser Copaco.
  • Libertad ascendía de Segunda División, mientras que Horacio Cartes asumía como presidente del club y Cerro Porteño era el ganador de los torneos locales.
  • El dólar estaba a 4,106 PYG/USD.
  • Era el gobierno colorado de Luis Ángel González Macchi.

Hace 15 años no había Skype, ni Gmail, ni YouTube, ni Facebook, ni Twitter, ni Whatsapp, ni Snapchat, ni Instagram, ni las otras redes sociales que hoy usamos profusamente. El iPhone recién aparecería dentro de 6 años (en 2007) y las apps no existían. No había Uber, ni Airbnb, ni Google Maps, ni drones, y pensar en vehículos que se condujeran solos existía solo apenas en la ciencia ficción.

Sin embargo, hoy casi la mitad de la población mundial está en línea, la mayoría mediante teléfonos celulares. No podemos vivir sin constantemente mirar las pantallas de nuestros smartphones que no paran de recibir notificaciones: en menos de una década nuestra vida se digitalizó de formas que nunca podríamos haber imaginado.

rs1950_shutterstock_366811019-scr

Bajo esta perspectiva, me gustaría imaginarme los próximos 15 años.

  • Dentro de 15 años, los smartphones habrán tenido tanto tiempo de evolución como las PCs de 2001 con relación a la Apple II de 1977, con la diferencia de que el avance será exponencial, lo que cuesta imaginar para nuestro pensamiento acostumbrado a lo lineal.
  • Seguramente las quinceañeras seguirán la costumbre de fiestas tan majestuosas como alcance el bolsillo de los padres, aunque dudo que las selfies sigan de moda, y menos el duckface, o sacar la lengua, pero con seguridad habrán de inventar algo que a las teen de hoy les parecerá ridículo.
  • Tiempo atrás descubrimos que nuestra privacidad on-line era violada rutinariamente y no creo que eso cambie, sino al contrario, la privacidad será muy probable y lastimosamente algo del pasado.
  • El reconocimiento facial será una cosa común y eso hará que la anonimidad sea aún más difícil. Supongo que cualquiera podrá saber quién es quién y cuál es su rating (sí, ya sé que hay un episodio de Black Mirror al respecto).
  • Todo indica que cualquier superficie (no necesariamente plana) podría convertirse en pantalla y estaremos rodeados de ellas (ej: parabrisas, espejos, ventanas, mesas, columnas, paredes).
  • Los avances en inteligencia artificial seguirán progresando y las avanzadas interfaces conversacionales del presente (Amazon Alexa, Google Home, Microsoft Cortana y Apple Siri) parecerán juguetes infantiles.
  • Espero que hayamos encontrado una forma de deshacernos de las contraseñas y que encontremos la forma de usar estándares (enchufes, protocolos, APIs, puertos), aunque tengo la misma esperanza de que los americanos adopten el sistema métrico decimal. Los sistemas biométricos tienen sus propios problemas (ej: usar el pulgar de una persona durmiendo), por lo que creo que no serán una solución en sí, sino parte de la solución.
  • Todo estará conectado a la Internet: esta tendencia es clara, aunque al menos inicialmente los beneficios a veces parezcan absurdos (ej: Alexa, prendé las luces del dormitorio). Sin embargo, estoy percibiendo que el prefijo smart implica obsolescencia programada: basta un update de software para que el dispositivo deje de servir (ej 1: en unos días más, Samsung empujará un update para que el Galaxy Note 7 dejen de funcionar; ej 2: un iPod touch perfectamente funcional ya no puede conectarse a leer email porque el software es obsoleto; ej 3: una tele que funciona como pantalla por años, si es smart, al poco tiempo deja de recibir updates y deja de poder conectarse a los servicios online). Con los ciclos acelerados actuales, ¿cuál es el incentivo de un fabricante de mantener actualizado un producto aún cuando tenga un modelo de ingresos recurrente?
  • La tendencia de video sigue en aumento: este año explotaron los videos live y 360. Google te da almacenamiento ilimitado para tus videos en HD hoy. Snap lanzó sus anteojos con cámara. No es difícil imaginar que en 15 años estemos grabando 24×7. Con time coding, geolocalización, reconocimiento de caras, reconocimiento de voz, lectura de labios, y otros trucos de machine learning, es muy probable que ese stream de video esté completamente indexado para que las búsquedas sean instantáneas (y si, otro episodio de Black Mirror).
  • Algún tipo de avance debería venir en materia de almacenamiento de energía: espero que la ansiedad de autonomía (range anxiety) sea una cuestión del pasado, pero no leí nada al respecto aún.
  • Con tecnología celular de 5ta generación ya bien madura y desplegada y de 6G en sus inicios, supongo que el ancho de banda para transmisiones de 4K debería estar solucionado. Si, incluso acá. ¿Streaming de 8K? No estoy tan seguro de que eso sea algo común todavía (al menos no aquí).
  • Imagino que habremos resuelto la forma de hacer que la realidad aumentada (virtual y mixta) sean de uso corriente, probablemente con anteojos (sería lo más fácil), aunque no descarto lentes de contacto inteligentes, si bien no me imagino cómo sería su fuente de energía.
  • Capaz que maneje un auto eléctrico, o capaz que se hasta ya se maneje solo y todo; aunque dudo que aguante nuestros raudales o nuestra pobre infraestructura que sigue anclada en el siglo pasado.
  • Con la disponibilidad de Netflix, Amazon Video, Spotify en cientos de países en todo el mundo, parecería que las barreras artificiales de disponibilidad por zonas para contenido de entretenimiento (música, video, juegos, etc.) tienen sus días contados. Dudo que sigan estando en 15 años. ¿Eventos en vivo, deportes? Más difícil saber, pero yo diría que onda mitad/mitad: algunos sí, otros no.
  • En 2001 no anticipaba que habría el boom inmobiliario de los últimos años, así que espero algún boom dentro de los próximos 15 años. No sé de qué.  Sin embargo, aunque deseo profundamente lo mejor, dudo que la infraestructura del país avance significativamente y acompañe ese boom, y seguiremos con los problemas típicos de países que no invierten en la educación de su pueblo.
  • Me gustaría pensar que la malaria ya no sería un problema, o el sida, pero dudo que el cáncer esté bajo control, aún con los avances en genética. Si el dengue deja de ser una preocupación, no será gracias a nuestras mejores prácticas sanitarias, sino gracias a algún avance de laboratorio.
  • En ciencias de materiales y nanotecnología ha habido grandes avances que sin duda tendrán su impacto masivo en nuestro día a día: paneles solares más eficientes y económicos, nanobots comestibles o inyectables que pueden hacer su trabajo con precisión en los órganos o células, por citar solo algunos ejemplos.
  • Si la tasa del dólar sigue al mismo ritmo de los últimos 15 años, en 2031 estaría en 8,100 PYG/USD. La economía se explica con matemática, pero a la economía le importa un bledo lo que la matemática diga y finalmente hace lo que quiere.
  • No creo que viajemos ida y vuelta a Marte.
  • Podría hacer una predicción de fútbol, pero no la haré. Uds ya se la pueden imaginar.

Se dice que tendemos a sobreestimar nuestras predicciones a corto plazo y subestimar las de 10 años o más. La verdad no tengo ningún apuro por ver si estas predicciones se cumplen o no. Independientemente, va a ser un interesante recorrido.

¡Feliz 2017!


Update Oct-17: Releyendo el artículo, me acabo de dar cuenta que me olvidé incluir algo relacionado a CRISPR/CAS9, la tecnología de edición genética que tiene el potencial de darle a los humanos la capacidad de alterar su código genético con precisión molecular (incluso puse la imagen de la típica doble hélice del ADN). Si bien son apenas los inicios y cualquier innovación médica toma años por el mismo proceso, 15 años es suficiente para que aparezcan algunos tratamientos basados en CRISPR/CAS9, por ejemplo: tratamientos para fibrosis quística, remedios «personalizados» en base al código genético de uno mismo, y tratamientos para enfermedades ligadas a pocos genes. En agricultura y ganadería seguro que habrá uso más extensivo de esta tecnología, pero no tanto como para curar sino para poner la evolución en «modo turbo»: cambios genéticos que en vez de tomar miles o decenas de miles de años se hagan instantáneamente en el laboratorio. Y así como la tecnología nuclear desató un gran poder tanto para bien como para el mal, es de esperar que pase algo similar con la tecnología genética. Sin duda, se nos viene un brave new world.

Fotografías

Hay que admitirlo, la cantidad de fotos y videos que tomamos y compartimos con nuestros teléfonos celulares es abrumadora. Si bien muchas fotos son efímeras, hay otras que quisiéramos guardar para volver a ver en el futuro, pero encontrarlas después de un tiempo es una tarea casi imposible. Por suerte hay herramientas que nos facilitan la vida y la idea de este posteo es mostrarles una de ellas, que a mi me resulta y creo que a otros también les puede servir.

google photos

Hablo de Google Photos, un álbum digital bastante completo y fácil de usar. Sé que hay personas que prefieren no dar más información a Google de lo que ya le damos, y les entiendo, y si este es tu caso, este artículo no es para vos. Para el resto, esto es lo que se puede hacer con Google Photos:

google-photos-auto-backup

  1. Si usás Gmail, ya tenés Google Photos: no tenés que tener otra cuenta ni otra contraseña.
  2. Se puede usar en casi cualquier equipo: iPhone/iPads, Android, PCs y Macs.
  3. Una vez instalada la aplicación, puede configurarse para que automáticamente suba a la nube las fotos y videos que uno toma cuando el equipo está en WiFi (sí, también se puede configurar para que suba las fotos de una carpeta y no todas, así no suben todas esas fotos que «te envían» por Whatsapp).
  4. Podés hacer que las fotos y videos suban en una resolución «alta» sin pagar nada de dinero, o en su resolución original, en cuyo caso te conviene pagar por espacio adicional (el plan de 1TB que cuesta $120/año debería ser más que suficiente para la mayoría de la gente).
  5. También se puede configurar Google Photos para que las fotos/videos que suben a la nube sean borrados de la memoria de tu equipo de manera que no te ocupen lugar, y así podés seguir quitando más fotos y videos.
  6. Como tus fotos y videos están siendo respaldados a la nube constantemente, tenés una preocupación menos si se roba o se rompe tu equipo.
  7. Podés buscar las fotos por palabras clave: atardecer, cabalgata, playa, gato, fútbol, parque, abuelos, etc. Google Photos trata de encontrar eso que escribiste en las fotos (espectacular!)
  8. Si las fotos que tomás tienen activada la opción de GPS, entonces, podés buscar cosas como: fiesta en encarnación.
  9. Las fotos y videos son privados, pero podés compartirlos con tus amigos y familiares.
  10. Podés organizar tus fotos en álbumes si querés (y tenés tiempo) y podés compartir esos álbumes para que solo puedan ser vistos o para que otras personas también puedan contribuir al álbum con sus fotos.
  11. Las personas que se adhieren a tus álbumes compartidos son notificados cuando los actualizás, así por ejemplo tus familiares pueden ver las fotos que subís de tus vacaciones o de tus hijos.
  12. Si querés, podés editar fotos (rotar, cortar, ajustar brillo, contraste, aplicarle filtros).
  13. Siempre que tengas conexión a Internet, tenés todas las fotos y video que subiste, ya sea desde tu teléfono, tableta o PC, desde la aplicación o la Web.

En síntesis, es una gran solución para el problema de ocuparse de las fotos con una filosofía simple: set & forget (configurás y te olvidás).

Si te parece que te puede ayudar, descargá e instalá la aplicación en tu equipo usando los links más abajo:

y seguí las instrucciones que te da la aplicación para configurar cuando la aplicación se inicia.

Ojo: la primera vez que Google Photos suba tus fotos a la nube, va a tomarle un buen tiempo (capaz que días!), sobre todo si tenés muchas fotos y videos, pero obviamente vas a poder seguir usando tu teléfono mientras. Es súper importante en esta etapa que solo permitas la carga de fotos y videos vía WiFi, porque si no habrá plan de datos que aguante :-)

¿Te gustó? Contame que tal…

Apagón Analógico

wall-of-televisionsHoy me llamaron de La Nación para preguntarme algunas cosas sobre el Apagón Analógico y me pareció un interesante tópico para escribir algunas ideas al respecto.

Pero, ¿qué es el Apagón Analógico? Se le llama así al momento en el que los canales de televisión deben dejar de transmitir usando señales analógicas y pasar a usar señales digitales.

Para entender mejor qué quiere decir esto y cuáles son sus implicancias, hay que entender un poco de cómo funciona la televisión. Un canal de televisión debe obtener una licencia del regulador (de la Conatel en el caso de Paraguay) para poder operar. La razón es que el estado paraguayo, a través de la agencia correspondiente, la Conatel, le asigna un «pedazo» del espacio radioeléctrico para que lo use en forma exclusiva (nadie más puede usar esas frecuencias asignadas) con el propósito de transmitir una señal de televisión. Por ejemplo: el SNT tiene la licencia para transmitir usando el «canal 9», es decir recibe el permiso para usar 6 MHz (MHz se lee megahertz) de espectro, entre las frecuencias 186 MHz a 192 MHz; la RPC tiene la licencia para transmitir usando el «canal 13» (también 6 MHz, desde 210 MHz a 216 MHz). En general, todos los canales de TV usan 6 MHz de espectro.

Antena de TV Externa

Típica Antena de TV Externa

Para poder transmitir, la empresa teledifusora tiene que montar un transmisor ajustado a las frecuencias obtenidas y dentro de los límites de potencia permitidos. Cuanto mayor la potencia del transmisor, mayor el alcance. Algunos canales usan repetidoras, estaciones que captan la señal y la vuelven a transmitir, para aumentar la cobertura y llegar a más hogares (o más «ojos» como se les denomina a los televidentes en la jerga de TV).

Para recibir la señal, el usuario (o televidente) necesita un equipo muy conocido: un televisor, o vulgarmente, una tele. Este equipo recibe la señal del «aire» por medio de una antena, pasa por un receptor sintonizado en el canal deseado (ej: canal 9 o canal 13) y se puede ver el programa de TV.

Desde sus inicios y hasta ahora, las señales que de TV que se transmiten por el aire en Paraguay son analógicas. Pero el mundo analógico va dando lugar al digital por sus ventajas inherentes y, así como en otros países, Paraguay está en el proceso de digitalización de las señales de TV, hasta el día del «apagón analógico», a partir del cual ya no se podrán emitir señales analógicas de TV.

Antena "Orejas de Conejo"

Antena «Orejas de Conejo»

Vamos a ver las ventajas/desventajas de este proceso para cada uno de los actores:

El Estado: El Paraguay (como otros países) recuperará espectro radioeléctrico originalmente asignado a TV analógica para darle otros usos más adecuados a estos tiempos (ejemplo: telefonía celular o Internet móvil). El espectro recuperado por la reasignación del espectro destinado originalmente a televisión analógica se llama Dividendo Digital (más detalles en ITU Digital Dividend). Esos nuevos usos del espectro normalmente empiezan con un proceso de licitación, donde el estado percibe ingresos por el «alquiler» de dicho espectro a las empresas que lo van a explotar.

El estándar elegido para la televisión digital en Paraguay se llama ISDB-T y fue adoptado por varios países latinoamericanos. Permite que en el mismo espacio de 1 canal de TV analógica se transmitan hasta 3 señales de definición estándar (SD), o 1 señal de SD y 1 de alta definición (HD), o 1 señal de Full HD.

Las empresas teledifusoras: Para poder transmitir señales digitales van a tener que cambiar sus transmisores. Sin embargo, en el mismo espectro que tienen asignado van a poder transmitir más de una señal de TV, en algunos casos hasta 3. Esto quiere decir que el SNT podría tener el canal 9A con una novela en HD y el canal 9B con un programa infantil en SD transmitiéndose al mismo momento (obviamente, para ver las 2 señales se necesitan 2 aparatos de TV).

Los televidentes: Para poder recibir las señales digitales van a necesitar una TV con un receptor digital compatible con el estándar ISDB-T, o van a necesitar un receptor externo que se conecta a la tele generalmente a través de cables de audio/video (RCA) o cable HDMI y en algunos casos a través de la entrada de la antena. Si el televidente tiene una tele «común» de tubo (CRT), el cambio no implicará necesariamente una imagen más nítida, pero si tal vez un aumento de programas de TV, siempre y cuando las teledifusoras emitan más señales. Si el televidente tiene una tele HD (o Full HD), el cambio podría implicar una imagen más nítida si las teledifusoras emiten señales HD y más programas, si las teledifusoras emiten más señales.

Si el televidente es suscriptor de un servicio de TV paga (cable, satélite, etc.), el apagón analógico no es un problema. No tiene que hacer nada y ni se va a dar cuenta, porque su proveedor de TV va a encargarse de hacer las conversiones necesarias.

Si el televidente tiene una antena (o virulana ☺), el apagón analógico es un problema, porque solo podrá ver la tele si:

  • Su aparato de TV viene con un receptor digital ISDB-T de fábrica, o
  • Tiene un receptor digital ISDB-T externo

Ejemplo de Receptor Digital ISDB-T

Es importante destacar que no porque uno tiene una tele HD, Full HD, Smart, UHD, LCD, LED, OLED, QuantumDot, 3D, etc., quiere decir que el receptor de este aparato sea compatible con el estándar ISDB-T. Si el receptor no es compatible con este estándar, uno no podrá ver TV a través del «aire». Otra cosa a destacar es que no porque sea digital quiere decir necesariamente de mejor calidad. La calidad dependerá de los programas que se emitan y si se emiten en HD.

Según la Encuesta Permanente de Hogares de 2014, el 91.4% de los 1.745.449 hogares (~1.6 millones) tiene al menos 1 tele, pero solo el 46% tiene cable o antena parabólica, es decir, en 2014 había 795 mil hogares que recibían la TV por el aire. El plan original era que el apagón ocurra en 2024, pero parece que la Conatel quiere adelantarlo para 2020 o incluso 2018 según las siguientes fuentes: Conatel, La Nación, UH, television.com.py.

La TV por aire tiene una ventaja única: es gratis para el televidente, así que es entendible que algunas (o muchas) personas se decidan por esta alternativa y otras la usen porque no tienen otra alternativa. Es muy probable que aún cuando el apagón ocurra en 2024, todavía haya un buen número de televidentes de aire que deberán tener (comprado, regalado o subsidiado) un receptor ISDB-T.

Ahora bien, para 2018, o 2020 y ni qué decir 2024, la tecnología celular LTE (4G) estará bien presente en el país, y es completamente factible que una gran cantidad de paraguayos consuma video a través de Internet en sus móviles o tabletas, con las ventajas que esto conlleva: lo que uno quiere ver, a la hora y en donde a uno le convenga. Con la televisión en demanda a través de Internet, uno se libera de la tiranía del horario (la novela de las 7, el noticiero de las 8, etc.), con la posible excepción de los eventos de tiempo real, como deportes (en especial el fútbol), noticias en vivo, eventos mundiales (ej: Oscars, conciertos en vivo).

Para terminar, aunque la digitalización de la televisión no parezca tener ventajas tan notorias, es un paso necesario para el progreso: el espectro radioeléctrico es un recurso escaso y muy valioso y es necesario que se destine a algo mejor. Después de todo, Ña Rosa podrá seguir viendo su novela de las 9 con su tele de tubo o su flamante tele LED y su antena de virulana siempre que tenga su receptor digital ISDB-T.


Si querés saber de experiencias en otros países, leé esta historia de  El Universal de México: «Sin televisión ya no sabemos qué hacer».

También podés leer  un artículo anterior sobre el tema.

4G

En los últimos días se vino hablando bastante en la prensa y redes sociales de «4G». La discusión se hizo más intensa, cuando uno de los operadores, Personal, que no participó en la licitación de la Conatel por las bandas de 4G sorpresivamente lanzó «4G». Leyendo algunos artículos de prensa y comentarios de usuarios en redes sociales, me di cuenta que hay una gran confusión y eso me animó a escribir este artículo con la intención de aclarar las ideas, sin tomar partido por unos ni otros. Espero que sirva de algo.

4g

Es natural que sea confuso, porque es un tema complicado, por eso voy a tratar de usar analogías que puedan facilitar el entendimiento del tema. Un teléfono celular transmite usando ondas electromagnéticas. Estas ondas tienen unas frecuencias y estas frecuencias se encuentran dentro de una banda (rango) de frecuencias. Es equivalente a que para escuchar la radio Aspen, tengo que poner el dial en 102.7, que es la frecuencia en la que transmite esa radio (102.700.000 ciclos por segundo o Hertz, abreviado Hz), de la banda de frecuencias asignadas al servicio de radio FM (88 MHz a 108 MHz). Para operar, Aspen «alquila» esa frecuencia a su dueño, el estado paraguayo (vos y yo), a través de una agencia llamada Conatel, responsable de administrar estas frecuencias, llamadas en su conjunto el espectro radioeléctrico.

Cada estado puede hacer de su espectro radioeléctrico lo que le cante (como ejemplo, ver el espectro radioeléctrico de UK y el de USA), pero en general hay acuerdos entre los países tendientes a una estandarización. Las bandas de frecuencias utilizadas en telefonía celular en Paraguay, hasta donde sé son las que se muestran en este gráfico muy simplificado.

frecuencias

Otra forma de pensar las bandas de manera un poco más simple, es como si fueran extensiones de tierra. El estado alquila estas extensiones de tierra a empresas privadas para que estas las desarrollen (pongan casas, edificios, calles, etc.) y a su vez la población se beneficie de esta infraestructura.

A medida que pasó el tiempo, los operadores celulares fueron desplegando distintas tecnologías en las bandas de frecuencias que tienen asignadas (es como que los desarrolladores inmobiliarios van mejorando los edificios, tiendas y calles a medida que hay nuevos materiales y técnicas de construcción). El cuadro siguiente muestra esa evolución de tecnología celular.

celular-tech

1G, 2G, 3G, 4G…, son nombres simples para referirse a una familia de tecnologías de prestaciones similares. No son términos estrictos y no están definidos formalmente por ninguna institución o organización, pero son útiles para identificar los servicios que pueden ser prestados con las tecnologías de esa familia. Así, en 2G había varias tecnologías que competían: En Europa se usaba GSM, en USA se usaban CDMA y TDMA y aquí en Paraguay (alrededor del año 2000) Tigo (entonces Telecel) y Personal usaban TDMA, mientras que Vox usaba GSM. En aquella época, un teléfono de Vox no se podía usar en Telecel o Personal ni viceversa, sin embargo las prestaciones eran equivalentes: con ambas tecnologías se podían hacer y recibir llamadas y enviar y recibir mensajes de texto.

Cuando Telecel empezó en 1992 sus servicio de telefonía celular de primera generación (1G), usó una tecnología analógica llamada AMPS en la banda de 800 MHz. Hacia 1998, digitalizó sus servicios para ofrecer servicios de segunda generación (2G) pasando a una tecnología llamada TDMA también en la banda de 800 MHz y luego también en la banda de 1900 MHz. Cuando ya estaba claro que la tecnología que tenía un futuro era la de la familia GSM, hacia 2004, Tigo desplegó tecnología GSM en las mismas bandas de 800 y 1900 MHz que tenía a su disposición, pero puso equipos más modernos que permitían servicios más avanzados como MMS y navegación básica en Internet (conocidos como de 2.5G). Luego, hacia 2008 instaló una red de WCDMA (y HSPA) también en las bandas de 800 y 1900 MHz para ofrecer servicios de tercera generación (3G) como Internet más rápido y muchos de los servicios que conocemos ahora (Deezer, Whatsapp, Tigo Sport, etc.).

Uso a Tigo como ejemplo porque fue la empresa que desplegó las más variadas tecnologías a través del tiempo para ofrecer los servicios de cada momento. En todos los casos usó las mismas bandas (800 y 1900 MHz). Y lo que quiero puntualizar con eso, es que ni la generación, ni la tecnología, ni la banda están necesariamente asociadas y que es posible instalar cualquier tecnología en cualquier banda, siempre que haya equipos disponibles (tanto de red como teléfonos).

Lo que acabo de describir es equivalente a que el desarrollador inmobiliario alquiló 2 grandes propiedades y construyó al comienzo unas casas simples, con calles de tierra y servicios de luz y agua. Con el tiempo, puso empedrado, construyó algunas tiendas. Más tarde pavimentó las calles, puso un club social, restaurantes, edificios… En síntesis, mejoró la infraestructura para ofrecer más y mejores servicios en el mismo espacio que tenía disponible.

Habiendo explicado todo lo anterior, recién ahora, voy a intentar explicar 4G. Conatel hizo una licitación de unas nuevas bandas de frecuencia para que los operadores puedan instalar tecnología que ofrezcan servicios de cuarta generación (básicamente Internet de banda ancha). Afortunadamente la guerra de estándares de tecnología se está acabando y LTE (Long Term Evolution) es la tecnología adoptada mundialmente para ofrecer servicios de 4G, que pueden ser resumidos en Internet móvil de alta velocidad para aplicaciones que exigen gran cantidad de datos (video de alta resolución, realidad aumentada, realidad virtual, juegos interactivos, etc.).

Cuanto más espectro un operador tiene a su disposición, mejor, ya que si lo usa racional e inteligentemente, puede atender a más clientes y darles a todos una mejor calidad de servicio. Si un operador tiene poco espectro, la calidad de servicio puede verse degradada. Asimismo, si el terreno que el desarrollador inmobiliario tiene para construir su barrio no es suficientemente grande, o tiene que hacer casas y calles más angostas (más gente, pero viven más apretujados), o hacer casas y calles más grandes (menos gente, pero todos viven más confortablemente).

Personal sorprendió a todos al no presentarse a la licitación y en consecuencia Tigo y Claro compraron todas las bandas que estaban disponibles (ahora tienen un montón de espectro). Fue una sorpresa, porque lo esperado es que si una empresa quiere seguir en el mercado, debe conseguir su materia prima, que en este caso es espectro radioeléctrico. Usando la analogía, si el estado pone en alquiler nuevas propiedades, las empresas desarrolladoras van a intentar quedarse con la mayor cantidad posible de estos terrenos para poder seguir construyendo sus barrios y seguir con su negocio.

Pero como vimos, la tecnología y las bandas no están necesariamente asociadas, por eso, Personal puede ofrecer servicios de 4G con tecnología LTE en la banda de 1900 MHz. Tal vez no sea lo ideal, pero es técnicamente factible. Es como si un desarrollador inmobiliario, para poner un edificio de lujo, tuvo que echar algunas casas, arreglar calles y hacer uno que otro ajuste porque está construyendo en el mismo terreno que tenía.

Hay que entender también que las bandas se usan para que el teléfono se comunique con la radiobase (eso que vulgarmente le llamamos antenas). Luego la radiobase se tiene comunicar con la central generalmente vía fibra óptica y de ahí hay que salir hacia Internet. Si hay un buen enlace de última milla (del teléfono a la radiobase), pero un enlace pobre entre la radiobase y la central o de la central a Internet, la calidad del servicio no será buena. En otras palabras, cada tramo: teléfono-radiobase, radiobase-central, central-Internet, tiene que estar bien ajustado para que se tenga un buen servicio.

Lo de ofrecer LTE sobre las bandas existentes está lejos de ser lo ideal*, pero al menos temporalmente es una mejora del servicio que los usuarios de Personal deberían sentir inmediatamente siempre que estén en las zonas de cobertura LTE, con teléfonos LTE con SIMcards LTE-compatibles (uSIM) y debidamente configurados. Al más puro estilo, mi club es mejor que el tuyo, es probable que algunos usuarios se luzcan ante sus amigos del «otro bando» con su Internet superior. Y hasta capaz que eso haga que algunos consumidores se cambien de operador. Cuando las redes LTE de Claro y Tigo estén listas (4 a 8 meses), estos contra atacarán fuertemente. Como estas redes se construirán en «terrenos vírgenes y amplios» (el nuevo y amplio espectro recién adjudicado) sus «barrios» podrían ser espectaculares, con amplias carreteras pavimentadas – si Claro y Tigo hacen las cosas medianamente bien, las redes que desplieguen podrían ser considerablemente mejores (es decir, Internet mucho más rápido).

Las leyes físicas son inmutables. Sin espectro, no se puede tener calidad y cantidad. A mediano plazo, Personal tendrá que conseguir más espectro si quiere seguir compitiendo en igualdad de condiciones. El pan de hoy podría ser el hambre de mañana.

Yo tengo una teoría, pero por ahora me la voy a guardar para mí e independientemente si se confirma o no, la lucha va a estar para alquilar balcones y finalmente Paraguay tendrá 4G.

 


Actualización 1 (19-Dic-15): El artículo tuvo una notable repercusión (#happyface) y recibí un montón de comentarios generalmente positivos. Algunos lectores me hicieron saber que no incluí a Copaco, que a través de Vox, ya está ofreciendo LTE hace tiempo. Es cierto. Sin embargo esta oferta ha sido ignorada por la mayoría de los usuarios. Pero la razón por la que no menciono a Vox/Copaco en el artículo, a pesar de que sí se muestra a Vox en el gráfico de las bandas, es que el objetivo del artículo es tratar de clarificar la confusión respecto a 4G, las bandas y la tecnología, no quien es el mejor, el primero o el de mayor cobertura. Eso lo dice el mercado quien «vota» todos los días con su billetera.

 



Actualización 2 (20-Dic-15): ^ Aparentemente hubo lectores que interpretaron que Personal tenía los días contados. Sorprendido por esta interpretación, que en ningún momento ni siquiera cruzó por mi cabeza, volví a releer mi propio artículo buscando esa posible interpretación y creo que es posible encontrar «la quinta pata al gato».

Decía que ofrecer LTE sobre las bandas actuales está lejos de ser lo ideal no porque técnicamente no sea posible, sino porque ya tienen usuarios en esa banda usando teléfonos de 2G y 3G. Sin embargo, como ya hace tiempo que hay 4G en el mundo, muchos teléfonos de los que hoy estamos usando ya son LTE, por lo tanto, en la medida que los usuarios que hoy están en 3G se migren a 4G (a veces tan fácil como decirle al teléfono que use LTE), Personal podrá ir aumentando el ancho de banda que hoy tiene asignado a 4G, después de todo, tiene 30 MHz en 1900, más que suficiente para llegar a los 20 MHz recomendados por el estándar. Es como «construir a medida que se crece», así como hacen las ciudades, que mejoran su infraestructura (construyen viaductos y puentes, ensanchan calles, crean vías alternativas), a medida que la población crece y demanda más servicios.

En síntesis, el futuro no está escrito. Ningún operador tiene fecha de defunción. Esta es una lucha en la que todo puede pasar, gracias a que hay competencia. Ojalá otras industrias en Paraguay tengan el dinamismo de la telefonía celular, donde los usuarios podemos tener opciones y alternativas.

Quiero aprovechar para agradecer la gran cantidad de comentarios que recibí de los lectores. #IGustoIterei

La Singularidad

ai

La ciencia ficción siempre me gustó porque plantea escenarios futuros donde la tecnología tiene un rol predominante. De un tiempo a esta parte, noté varias películas las cuales, cada una a su manera, describen un futuro de inteligencias artificiales muy avanzadas. Entre estas películas están:

Estas inteligencias artificiales (AI por sus siglas en inglés de Artificial Inteligence) avanzadas empiezan siendo muy torpes inicialmente, pero gracias a su progreso  exponencial, pueden no solamente interactuar con personas en lenguaje natural, sino que además muestran empatía, sentimientos, emociones, y conciencia de sí mismas.

Por supuesto que es fácil desestimar estas AIs con el argumento de que es pura ciencia ficción, sobretodo teniendo en cuenta lo limitado que son los sistemas actuales de interacción verbal automatizada (no faltan ejemplos de sistemas de reconocimiento de voz a los que hay que repetir varias veces lo mismo para que entiendan simples comandos), aplicaciones que no pueden diferenciar cosas simples como un texto, una fecha, un número, etc.

Pero hay sobrados ejemplos de avances reales en AI. Solo para citar algunos:

A esto hay que sumar avances reales en robótica, drones, vehículos que se auto manejan, sensores, nanotecnología, ingeniería genética, la Internet de las Cosas (IoT), redes neurales, aprendizaje profundo (deep learning), big data, cloud platforms, y una conectividad sin precedentes.

Está muy claro que cada vez vamos a depender de la nube. La cantidad de información que generamos es simplemente apabullante (fotos, videos, conversaciones, backup de dispositivos, localizaciones y más) y por más que nos resistamos vamos a terminar cediendo a la conveniencia del cloud. Este triunfo de la nube va a significar una completa pérdida de la privacidad, y nuestra información privada se va a agregar con nuestra información pública (gustos, preferencias, estados de ánimo, etc.) colectada de nuestros constantes status updates, likes, shares, retweets, favs, pins, check-ins, tags, etc., a nuestos metadatos, próximamente a nuestro perfil de ADN. Así con todos estos datos nuestos y gracias a una capacidad sin precedentes de data mining y análisis de datos, las empresas (y gobiernos) tendrán un perfil absolutamente preciso de cada individuo. Todo esto también permitirá ajustar, calibrar y mejorar los modelos de AI actuales.

El brillante Ray Kurzweil, que en palabras de Bill Gates es “el mejor que conozco en predecir el futuro de AI» y trabaja para Google en AI, ha predicho con bastante precisión varios eventos del pasado, y tiene algunas impactantes predicciones para los próximos 25 años, en particular que para la década del 2040-2050, la inteligencia no biológica será mil millón de veces más capaz que la inteligencia biológica.

exponential-growth-of-computing

En pocos años tendremos la tecnología para transformar a los humanos con la capacidad de amplificar nuestra inteligencia y mente, extendiéndonos fuera de nuestros cuerpos, convirtiéndonos en «transhumanos» (lo que se representa con el símbolo «h+»). Ese es el momento de la singularidad tecnológica.

Los avances son tan importantes, que visionarios como Bill Gates, Elon Musk y el mismo Stephen Hawking, vislumbran problemas en el horizonte y demuestran su preocupación.

Mientras tanto, los robots siguen siendo bastante torpes, pero aunque sean simples máquinas, tal vez por el hecho de que estén antropomorfizados, uno siente un poco de lástima cuando caen o fallan miserablemente en sus objetivos. Pero, si sentimos esto con burdos esqueletos de hierro, no puedo ni siquiera imaginar lo que habremos de sentir cuando los robots sean tan sofisticados que sean casi indistinguibles de seres humanos.

Si querés ahondar más sobre estos temas, te dejo algunos links adicionales:

Finalmente, para aligerar el tema, un poco de humor de la mano de The Big Bang Theory, en un episodio donde Sheldon trata de determinar su fecha de muerte para ver si ocurre antes de la Singularidad.

Video de Graduación

No sé porqué me pidieron que haga un video para la graduación del curso de mi hija. No sé si asumieron porque “sé de informática”, entonces “sé de editar videos y eso…”. De cualquier manera, me quedé pegado con la tarea y tuve que poner manos a la obra.

screen920x920

Primero, lo primero: conseguir las fotos de los chicos. Pensé en lo obvio: una dirección de correo electrónico para ir recibiendo las fotos. Pero la idea no me gustaba del todo porque requería organizar los correos, luego abrir el email y descargar los adjuntos. Tenía que haber algo más “moderno” y a la vez fácil de usar y “universal” (que no requiera que los padres estén suscriptos a algún tipo de servicio).

Siendo fan de Picasa (entre paréntesis, vivo con el temor que Google lo descontinue), decidí que era el camino adecuado, ya que permite entre otras cosas que se publique vía email (publish by email): En PicasaWeb generé una dirección de email, la que compartí con los padres para que puedan enviar sus fotos. El servicio (PicasaWeb) se encarga de extraer las fotos y colocarlas en una carpeta privada llamada Dropbox (no tiene relación con el servicio de www.dropbox.com). De esta manera, sin esfuerzo de mi parte, yo podía ver las fotos en la web (o en mi PC o mi teléfono) a medida que se iban enviando.

La aplicación de escritorio de Picasa permite sincronizar las carpetas locales y de la nube, de manera que cuando mi PC estaba prendida, las fotos que llegaban a la nube, bajaban a mi PC. Además, Picasa permite hacer ajustes a las fotos (recortes, cambios de brillo, contraste, saturación, ajuste de ojos rojos, rotación, etc.) sin alterar los originales. También, desde Picasa, eliminé fotos duplicadas o muy similares, fotos muy movidas, muy fuera de foco o muy oscuras y aquellas que no se adherían al criterio editorial que me auto impuse.

Yo esperaba una mayoría de fotos digitales, con útiles metadatos para poder entre otras cosas, ordenarlas cronológicamente, pero recibí una abrumadora cantidad de fotos de fotos impresas, fotos de Whatsapp y una que otra foto de imágenes en un monitor (?!). La minoría de fotos que eran digitalmente nativas tenían metadatos poco confiables (fechas de fotos inconsistentes por ejemplo).

Ante este escenario desesperanzador, probé ordenarlas en forma aleatoria, pero ver las fotos tan fuera de orden no fue una experiencia placentera.

Así que no tuve otra que construir una cronología aproximada a mano, arrastrando las fotos de un lugar a otro (Picasa permite este ordenamiento manual) con la ayuda invaluable de mi hija. Fue como armar un rompecabezas de más de 600 piezas fotos.

El siguiente paso era mantener el orden de las fotos y los retoques (recortes, cambios de brillo, contraste, saturación, etc), de manera que estos no se pierdan aún cuando las fotos sean tratadas por otros programas. Picasa permite exportar las fotos con sus mejoras anteponiendo un número de secuencia al nombre.

Para hacer el video con las fotos, quería un software que hiciera la mayor parte del trabajo solo. Adobe Premiere y otras herramientas pro de video, probablemente produzcan el mejor resultado, pero requieren una considerable inversión de tiempo y trabajo. Probé algunas alternativas más orientadas a consumidores, como Adobe Premiere Elements, Corel Video Studio Pro, Pinnacle Studio, iMovie, Microsoft Movie Maker, e incluso el propio Picasa. También probé soluciones online como Animoto y Stupeflix. Ninguna parecía suficientemente buena.

Al final, la que más me gustó es una aplicación para iPad llamada Replay (de los creadores de Stupeflix). Esta aplicación permite hacer videos muy buenos casi mágicamente, con efectos geniales como que la secuencia de fotos esté sincronizada con la música.

Habiendo decidido la aplicación de video, el siguiente paso era pasar las fotos de la PC al iPad. Apple no la hace fácil y le fuerza a uno a usar iTunes, una aplicación cuyo nombre e ícono se quedaron en el tiempo ya que actualmente no son representativos de su función, sin mencionar otros aspectos que no vienen al caso en esta ocasión.

En fin, pasé las fotos renombradas secuencialmente para mantener el orden en eliPad, pero la aplicación Photos del iPad, en su afán de ser mágica, cambió mi meticuloso orden por uno aparentemente cronológico basado en los metadatos de los archivos JPG (no me digas, ya sé: son tus fotos el problema, no el iOS). Peor, la aplicación Photos no tiene opciones de ordenar por otro criterio.

Supuse entonces que la solución para mantener el orden necesario era cambiar las fechas de las fotos. Por suerte tengo una aplicación para gestionar atributos de archivos llamada Attribute Magic Pro. Con esta aplicación para Windows pude cambiar los timestamps de los archivos en forma masiva y secuencial (fecha de creación, modificación, acceso, foto tomada, foto digitalizada) con una separación de 1 minuto entre cada una. Ahora, las fotos se podían ordenar en forma cronológica por nombre o por cualquier fecha.

De vuelta a pasar las fotos al iPad y oh! sorpresa: algunas fotos estaban fuera de orden de nuevo por culpa de los tags geográficos. Como eran unas pocas fotos las que tenían georreferencias, usé Picasa para remover los geotags.

Y por tercera vez volví a pasar las fotos al iPad. Esta vez, Photos mostró las fotos en la secuencia correcta. Replay también mantuvo el orden.

Ahora había que probar cómo iban a quedar las fotos en el video. Cuando traté de poner las casi 600 fotos en Replay, la aplicación se «quejó» diciendo que la máxima cantidad de assets (photos y vídeos) no podía ser más de 200 por video. Después de un maldecir un rato, decidí que iba a hacer 3 vídeos de unas 200 fotos cada uno y los iba a juntar con el mismo Replay o alguna otra app de video.

Replay hace que las fotos ocupen toda la pantalla, por eso las fotos verticales, que mostrarían 2 barras negras verticales a cada lado, son cortadas de manera que queden apaisadas y como resultado, en muchos casos, la foto dejaba de tener sentido, o se cortaban las cabezas de algunas personas. En estos casos, usé Photoshop para hacer algunos efectos como por ejemplo un collage de fotos verticales de manera que quedaran bien en forma apaisada. Para pasar las nuevas imágenes, tuve que hacer todo el circuito de nuevo: conectar el iPad a la PC con el cable USB, y sincronizar las carpetas vía iTunes.

El siguiente desafío fue la selección de música. Esto es relevante porque Replay sincroniza las transiciones de las imágenes con la música. Inicialmente había pensado usar VirtualDJ, la fantástica aplicación de DJ para PCs, para mezclar el soundtrack, pero al final como Replay no podía manejar todas las fotos en un solo video, descarté esa idea y decidí usar 3 vídeos independientes, cada uno con su música.

Algunas de las canciones que decidí usar tenían espacios al inicio y al fin que tuve que removerlos usando Audacity.

Después de ajustes aquí y allá en Replay con las fotos y la música, finalmente obtuve 3 videos que los junté usando iMovie en el mismo iPad.

Inicialmente pensaba distribuir el video en forma digital, probablemente en una carpeta de Dropbox o OneDrive, pero me pidieron que cada padre recibiera el video en un disco.

Entonces, no tuve otro remedio que degradar la calidad del video (el video originalmente era de una resolución de 720p) y hacer un DVD para que sea universalmente reproducible (asumiendo que todos tienen acceso a un DVD player).

Para hacer el DVD me rebusqué entre algunos programas del pasado y usé Nero Vision. Como sobraba mucho espacio, también coloqué en el DVD el video en HD y las fotos.

Finalmente, con ImgBurn hice una imagen del DVD y quemé los casi 100 DVDs para poder distribuirlos físicamente.

El toque final fue etiquetar los DVD con un diseño alegórico al acontecimiento, pero esta tarea ya no estuvo a mi cargo esta vez y no sé que herramientas usaron.

Fue una experiencia interesante, pero no sé si la quisiera repetir pronto. De todos modos, espero que algo de esto pueda servirle a otra persona a quien le toque un proyecto similar.

Lista de programas usados

  1. Recolección de las fotos: Picasa (Windows), usando publish by email y sincronización escritorio-nube.
  2. Mejoras de las fotos: Picasa (Windows), con sus útiles opciones de edición no destructivas.
  3. Ordenado: Picasa (Windows), gracias a su orden manual (drag and drop).
  4. Renombrado en orden: Picasa (Windows), gracias a su función de Exportar.
  5. Reordenado de fechas: Attribute Magic Pro (Windows), que permite un excepcional manejo de atributos de archivos en forma masiva.
  6. Eliminar Geotags: Picasa (Windows), filtrado de fotos con tags de geolocalización y eliminado manual (eran solo unas pocas fotos).
  7. Subir fotos al iPad: iTunes (Windows), no hay otra opción local :-(
  8. Ajuste de la música: Audacity (Windows).
  9. Edición de fotos: Photoshop (Windows)
  10. Edición de video: Replay (iPad), excepcional app para hacer un video “corto” de fotos y videos.
  11. Para juntar juntar los videos que hice con Replay: iMovie (iPad), aunque podría haber usado el mismo Replay.
  12. Para normalizar masivamente el nombre de las fotos que se iban a distribuir en el DVD: Bulk Rename Utility (Windows).
  13. Edición de DVD: Nero Vision (Windows)
  14. Imagen de DVD y quemado de DVDs: ImgBurn (Windows)

20 años

hands_holding_future_sig_450Un amigo me llamó a preguntar qué pensaba del Nexus 5. Le comenté que estaba por salir el Nexus 6 (code named «Shamu»), pero que lastimosamente todo indicaba a a que iba a ser un teléfono muy grande (cerca de 6″). Parece que «grande» es el tamaño de moda (a vos te hablo iPhone 6 Plus #cof, phablet, #cof).

En fin, le dije que a lo mejor le convenía ver el Moto G 2014 ya que por el precio era un teléfono decente. Pero quería una respuesta más definitiva, entonces, toqué el ícono del micrófono de Google en mi Android y dije: «nexus five versus moto g twenty fourteen». En segundos apareció en la pantalla la interpretación: Nexus 5 vs Moto G 2014″ y varios resultados. El primero era justamente el resultado que estaba buscando.

nexus-5-vs-moto-g-2014

Como estaba con mi hija, le dije: «parece magia». Y me quedé pensando en lo que había pasado: tomé una aparato sin cables, le hablé, envió mi voz a algún lugar donde decodificó mi voz, la convirtió a texto, hizo una búsqueda y me trajo la información que quería en segundos. Agregué: «Nena, impensable saber que pasará en 20 años…»

Y para hacer el ejercicio, vamos 20 años atrás: 1994. Amazon.com no existía, la Internet estaba en pañales (3 años del www), Google no aparecería hasta dentro de 3 o 4 años, Windows 95 y su botón de Start estaban en desarrollo (code name «Chicago») y pasarían todavía 2 años más para que Internet llegara a Paraguay. Las PCs «decentes» tenían un procesador Intel Pentium de 66 MHz, 8 MB de RAM, discos de 340 MB y monitores de 15″ con  una resolución «SuperVGA» (800 x 600). Y con suerte podías conectarte a Internet a 9600 o 14400 bps (en los países donde había). En Paraguay, había celulares solo hace 2 años.

Hoy mi teléfono tiene una CPU de 2500 MHz, 3000 MB de RAM, almacenamiento de estado sólido de 64000 MB y una resolución «FullHD» (1920 x 1080), está conectado a Internet todo el tiempo a velocidades de más de 1.000.000 bps (o de 50.000.000 bps en países más avanzados). ¿Alguien se podía imaginar que lo que acababa de hacer (hacer una pregunta en lenguaje natural hablado y recibir la respuesta) sería rutina en 20 años?

Vamos 20 años más atrás: 1974. La era de la microcomputadora aún no había empezado: Microsoft y Apple no existían. El microporcesador, inventado por Intel, apenas tenía 3 años. IBM y los 7 enanitos eran los reyes de la computación. ¿Alguien en 1974 se iba a imaginar que Intel y Microsoft serían el estándar y que íbamos a estar usando una interfaz gráfica rutinariamente dentro de 20 años?

Estoy seguro que alguien hoy está en el lugar de Steve y Bill cuando vieron lo que estaba haciendo Xerox en los ’70s o de Jeff cuando dejó todo para vender libros por «Internet» o de Larry y Sergei cuando trabajaban en PageRank. ¿Será Mark o todavía no apareció?

No importa qué, en 2034 miraremos para atrás y veremos nuestros más codiciados smartphones y tabletas de hoy (iPhone 6, Samsung Galaxy S5, Moto X, iPad mini 3) como piezas de museo, tal como la PC Pentium con 8 MB de RAM de 1994.

No me queda la mínima duda que todo será smart: auto, ropa, casa, electrodomésticos, focos… La IoT (Internet Of Things) será tan común que el nombre será ridículo (¿alguien se acuerda de «information superhighway»?). En materia de comunicación celular estaremos por 6G o 7G (lo que sea que eso quiera decir) si es que seguimos usando esas siglas. Y ojalá encuentren alguna forma de mejorar las baterías.

¿Y en cuánto a servicios? No me da la imaginación. Pero de seguro será impresionante…