Opinión / Análisis
miércoles, septiembre 4, 2024
|
Hola amig@s lectores,
Si les dijera que este artículo completo fue escrito por una Inteligencia Artificial (IA), ¿me lo crearían? Hace apenas dos años atrás quizás no, pero con la llegada de una nueva generación de IAs del tipo LLM (Large Language Model) como ChatGPT es posible que muchos de ustedes no sepan qué responderme. Y eso, es un problema. Aunque por un lado estamos adentrándonos en uno de los más emocionantes (sino, el más emocionante) momentos de la humanidad, a la misma vez esto trae consigo un nuevo tipo de problemas, problemas que aunque no son totalmente nuevos (me refiero a la capacidad de hacer creer que algo ficticio es real) sí podemos decir que amplifica de forma exponencial esos problemas anteriores. Como ejemplo, el año pasado se hizo viral una imagen del Papa Francisco aparentemente modelando un abrigo de nieve en una pasarela, y poco después se hizo viral otra imagen de Elon Musk aparentemente enamorado de una mujer cibernética, y recientemente hemos visto personas como Donald Trump utilizar tecnología deep fake e imágenes de famosos creadas enteramente por software para hacer aparentar que esas personalidades apoyan su segunda candidatura presidencial en los EEUU. Pero eso apenas es el comienzo… Nos estamos adentrando a un mundo en donde no vamos poder estar seguros de nada de lo que leemos, vemos o escuchamos, y esto tendrá graves repercusiones sociales de forma masiva, al menos que tomemos medidas al respecto (medidas que sugiero más adelante en este mismo artículo). Imaginen por ejemplo si llega un reclamo a una empresa de seguros, con no solo evidencia de audio de una llamada telefónica pidiendo auxilio, sino además fotografías desde múltiples ángulos del accidente reportado, y hasta video de una cámara de seguridad cercana a los hechos. Hasta hace par de años esta evidencia se hubiese considerado prueba contundente de que el supuesto accidente reclamado realmente sucedió, y la empresa aseguradora hubiese sido obligada a pagar potencialmente millones en daños. Pero, hoy día, ¿cómo podemos estar seguros de que esa llamada telefónica, esas fotos y ese video no fueron generados por las más recientes versiones de programas como Midjourney o Sora de OpenAI? Similarmente, si recibes una llamada de emergencia de un familiar cercano, y la voz es idéntica a esa persona, e incluye incluso el tipo de lenguaje que utilizaría, con las mismas expresiones que caracteriza a esa persona, ¿enviarías algo dinero de ayuda a esa persona para sacarla de un apuro? Si la pregunta anterior les intrigó, noten el caso de un ejecutivo de una empresa multinacional con sede en Corea del Sur, a quienes unos hackers estafaron US$25 Millones de dólares al convencer a alguien en la empresa para que transfiriera esa cantidad de dinero. ¿Y cómo lo lograron? Pues convocaron a una víctima en el departamento de finanzas (que teníala capacidad de hacer transferencias bancarias) a una reunión virtual con el supuesto General General de Finanzas y varios otros ejecutivos de alto nivel de la empresa para discutir un asunto urgente, y sucede que todos los “ejecutivos” de la reunión habían sido personificados con tecnología deep fake para crear avatars/clones de ellos que se veían, hablaban y comportaban como los seres humanos que reemplazaban. Es decir, en esa llamada de videoconferencia grupal, la única persona real era la víctima, y todos los demás integrantes que participaron en la videollamada eran clones digitales de sus otros compañeros de trabajo y superiores de la empresa. Estos avances en Inteligencia Artificial Generativa (IA que genera desde cero cualquier tipo de contenido que puedas imaginar) están proveyendo a una nueva generación de criminales digitales un nuevo conjunto de herramientas para engañar, estafar, atacar, sabotear, sobornar y robar a una escala hasta hace poco inimaginable. Estamos literalmente entrando a un umbral en donde se está haciendo extremadamente difícil (por no decir casi imposible) distinguir lo real de lo falso. Y el gran problema que eso trae es que la sociedad humana desde sus orígenes se mantiene estable en base a una sola cosa: La confianza. ¿Y cómo podrá funcionar una sociedad en donde no exista confianza a nivel personal, profesional, institucional o a cualquier otro nivel? Es decir, ¿cómo sabes que la tienda a la cual le estás comprando algo online es real? ¿Cómo sabes que el portal o app de tu banco no es uno falso? ¿Cómo sabes que con quien estés hablando en una videoconferencia es quien dice ser? ¿Cómo sabes que el video que viste de un ser querido supuestamente haciendo una fechoría es real? ¿Cómo sabes que los resultados de tus búsquedas en Internet son reales? ¿Cómo sabes que el video de tu hija haciendo pornografía no es real? ¿Cómo sabes que la empresa con la cual llevas semanas negociando es real? ¿Cómo sabes que las autoridades gubernamentales que te están demandando un pago de impuestos es real? ¿Cómo sabes que un documento científico que estás leyendo es real y cita fuentes reales y contiene datos reales? ¿Cómo sabes que las noticias que estás viendo es real? ¿Cómo sabes que lo que dice el próximo candidato presidencial es reall? Bajo este nuevo esquema social que estamos entrando gracias a la IA Generativa se hará casi imposible operar, creer o maniobrar, y podríamos fácilmente llegar a un estancamiento social de proporciones épicas. Sin embargo, hay soluciones que podemos implementar como sociedad. La primera es una recomendación que hago a nivel familiar y de amigos cercanos, y es la de crear una palabra o frase clave que solo ustedes conozcan, y que nunca hayan comunicado de forma digital en ningún momento, de modo que si algún día reciben una llamada de emergencia o de alguna otra índole dudosa, ustedes puedan preguntar la palabra o frase clave para verificar la identidad de la persona al otro extremo de la comunicación. Así que por ejemplo, si en una reunión familiar nos ponemos de acuerdo de que nuestra palabra de seguridad será “Segismundo”, y posteriormente recibes una llamada de un familiar aludiendo una emergencia y pidiendo una transferencia de dinero, lo primero que le preguntarías es la palabra clave secreta. Si la persona no pueda contestarla (o al menos decirte el lugar y otros datos del día en que acordaron la clave) eso significa entonces que esa persona está posiblemente siendo personificada por un hacker con tecnología deep fake. La segunda sugerencia es una sugerencia tecnológica que debemos exigir se integre a toda tecnología que capture o genere contenido en cualquier formato (sea texto, sonido, imágenes o videos), y tiene que ver en que desde su misma fuente debemos poder codificar una firma digital que podamos verificar contra alguna fuente. Así que por ejemplo, bajo este esquema toda cámara digital, todo celular, todo micrófono y toda IA que genere imágenes, texto, sonido o video debe poder incrustar información que permita comprobar que el cotenido o fue (1) generado por medios “orgánicos” (como por ejemplo, un video que capturaste en un cumpleaños) o (2) por medios sintéticos (como un video de un cumpleaños imaginario generado por una IA), así como proveer información de su fuente (como el autor, fecha de creación, etc). De esta manera, si vemos una noticia o leemos un libro o artículo, o recibimos una llamada de audio o participamos en una videoconferencia, podemos tener algún grado de certeza de que lo que percibimos es real o sintético y de su actual procedencia. Para esto es necesario desarrollar estándares tecnológicos en la industria para que la información capturada (por ejemplo) por una cámara digital esté cifrada desde el momento que es capturada por su sensor de imagen, y para que una firma digital sea parte de la imagen antes de que esta se almacene o esté disponible para distribuirse, y de paso que en cualquier momento se pueda detectar si el contenido fue alterado en lo más mínimo. Una buena noticia es que ya existe una iniciativa de parte de algunos fabricantes de cámaras y líderes de la industria para crear algo similar, e incluso ya existen algunas cámaras profesionales del mercado con tecnología similar a esto, y de paso ya existe investigación para crear sistemas que incluyan watermarks (“sellos de agua” digitales) en habla generada por IA Generativa, e incluso ya existe una propuesta de ley en el estado de California en EEUU para requerir que todo contenido sintético tenga que venir con un watermark, por lo que poco a poco veremos este tipo de tecnología esparcirse a todo sistema que genere contenido de alguna forma. Y esperemos que estas soluciones ocurran más temprano que tarde, ya que de no ser así nos arriesgamos a que la falta de confianza en nuestros sentidos nos lleven a un caos social con resultados posiblemente catastróficos para la humanidad. - p.d.: Para los curiosos sobre la pregunta que puse al inicio del artículo, no, este articulo no fue escrito por una IA. O al menos eso le digo a ustedes… Actualización El lector Sergio Hernandez hizo una buena observación en los comentarios sobre el tema de firmas digitales, y respondí a su comentario para aclarar que cuando hablamos de una firma de agua digital hablamos de una firma criptográfica basada en el concepto de un Hash (y por extensión en cifrado de datos con llaves públicas y privadas), sin embargo esos son conceptos demasiados técnicos que extenderían demasiado este artículo, lo importante es el concepto de poder verificar la fuente de algo. autor: josé elías |
18 comentarios
86,147 vistas |
Audio / mp3 , Cámaras Digitales , Celulares / Móviles , Ciencia , Derecho Digital , Educación , Futuro Digital , Internet , Negocios , Opinión / Análisis , Predicciones , Psicología , Redes Sociales , Robots & I.A. , Software , Tecno-Seguridad , Tecnología Visual |
lunes, junio 5, 2023
|
Hola amig@s lectores,
El día que muchos estábamos esperando por fin ha llegado. Apple acaba de anunciar hoy sus rumoreadas (por años) gafas de “realidad extendida”, el “Apple Vision Pro”, y lo que vi hoy me ha dado mucho que pensar, así que abróchense los cinturones para embarcarnos en un análisis eliaxístico sobre este nuevo producto… Nota: para los curiosos que no se puedan aguantar, vayan y visiten primero ahora la página oficial del Vision Pro en el portal de Apple, y después que vean todo ahí regresen acá para mis opiniones, análisis y predicciones. Lo primero que voy a decir en cuanto a primeras impresiones es que hay que aplaudir la maquinaria mercadológica de Apple, es asombroso la forma clara que tienen de anunciar un producto e ir directamente a la psicología humana para hacerte desear vaciar tu cuenta bancaria o ponerte en plan de ahorros para comprar uno lo antes posible. Sin embargo, aun con excelentes primeras impresiones, siempre hay una dosis de realidad con la cual tarde o temprano hay que enfrentarse, y este artículo de hoy es para que aterricemos y pensemos todo en frío. Hoy les hablaré de las tecnologías que nos trae el Vision Pro, y lo que opino sobre lo que nos ofrece y sobre lo que creo le falta, y de lo que Apple puede hacer a futuro para mejorar. Pero iniciemos con los hechos: El Vision Pro realmente es algo extraordinario desde el punto de vista técnico, es el visor de Realidad Virtual y Realidad Aumentada/Extendida más avanzado del mundo, sin duda alguna, y entre sus cualidades se destacan las siguientes: 1. Tiene dos pantallas creadas especialmente para el Vision Pro que en conjunto tienen 23 millones de pixeles, lo que equivale a 11.5 millones de píxeles por ojo. Como referencia, una pantalla 4K tiene unos 8.3 millones de píxeles, por lo que estas micro-pantallas tienen mayor resolución por ojo que la TV 4K que está en tu casa o la casa de tus amigos. Notar además que si utilizas lentes medicados que Apple ofrecerá adaptadores compatibles con tu visión que se conectan de forma magnética al interior del Vision Pro. 2. Tiene 12 cámaras integradas, que se utilizan para varios fines, desde ver tus manos y el medio ambiente hasta permitirte tomar fotos y videos. 3. Contiene 5 juegos de sensores de todo tipo (distancia 3D, lector de ojos, etc), 6 micrófonos, y 2 auriculares especialmente diseñados para que escuches sonido envolvente en 3D. 4. Ofrece una super innovadora pantalla externa que proyecta tus ojos al mundo exterior. Pero no es cualquier pantalla, es una pantalla lenticular que es otra forma de decir que transmite imágenes en 3D para que dependiendo del ángulo que alguien te esté viendo, pueda ver el interior de tus gafas junto a tus ojos en 3D. O en otras palabras, esta funcionalidad da la ilusión de hacer la parte frontal del Vision Pro transparente para que alguien pueda verte directo a los ojos. Esto es bastante innovador. 5. El sistema de renderizado interno en 3D adopta una técnica que se llama en inglés “foveated rendering”, que es algo que ya algunas otras gafas de alta gama han implementado de una forma u otra, que permite que estas rendericen información de alta definición solo en la dirección que tus ojos miran, de modo que el perímetro se pueda renderizar de menor calidad y por tanto requiriendo menos poder de procesamiento, ahorrando energía, y mejorando la fluidez de los gráficos. Y noten que esto es como la combinación del ojo humano y el cerebro perciben el mundo, en donde en el centro del ojo vemos en alta definición y todo color, y en el perímetro vemos con imagen degrada (cosa que no notamos porque el cerebro es un excelente “rellenador” de información). 6. Te reconoce con solo verte en los ojos, con lo que Apple llama “Optic ID”, que similar a las películas de Hollywood lee tu retina (que es única en cada individuo del planeta) para identificarte (incluso si tienes un hermano gemelo idéntico). Esto reemplaza el Face ID y el Touch ID tradicional de otros productos de Apple en el Vision Pro. 7. La interfaz es totalmente natural, utilizando tus ojos (el Vision Pro sabe lo que ves en pantalla), tu voz (opcionalmente dependiendo de lo que estés haciendo) y tus manos (para seleccionar e interactuar con el medio ambiente sin necesidad de controles externos). Según Apple, puso mucho empeño en crear un nuevo “lenguaje de uso” similar a los lenguajes de uso que utilizó al crear la Mac, el iPod, el iPhone, y el iPad, y alega que aplicó a unas 5,000 patentes de tantas innovaciones técnicas que tiene el Vision Pro en su diseño e implementación. 8. De paso viene con dos potentes procesadores, un chip M2 de Apple (el mismo que tiene la nueva MacBook Air de 15” también anunciada hoy), y un chip especialmente dedicado para el Vision Pro llamado el R1 (que asumo significa el “Reality 1”), creado especialmente para manejar el monumental flujo de datos en tiempo real que debe procesar el Vision Pro para todo lo que hace. 9. El Vision Pro también contiene un pequeño dial (similar al del Apple Watch) el cual al girar haces que gradualmente la realidad vaya desvaneciendo y solo veas la realidad virtual generada dentro de las gafas. Pero aparte de eso, el software también hace cosas bastante impresionantes. Por ejemplo, cuando alguien se aproxima a ti, el Vision Pro detecta eso y te superimpone de forma gradual la persona para que la veas y puedas interactuar con ella, mientras que al mismo tiempo el Vision Pro despliega la imagen de tus ojos en formato casi holográfico para que la persona note que la estás viendo y puedan hablar cara a cara (o ojos a ojos) de forma natural. Y es bueno notar que para que todo esto se haga posible que el Vision Pro contiene cámaras externas de super alta calidad para que experimentes el mundo similar a como lo verían tus propios ojos, sin tú tener que desmontarte las gafas. Todo esto viene apoyado por un nuevo sistema operativo al que Apple ha bautizado como “visionOS”, especialmente diseñado para el Vision Pro y de paso compatible (con una recompilación de código) con las millones de Apps de iOS, iPadOS y macOS. Ya por ejemplo Apple anunció que Microsoft tendrá versiones de Office especialmente para el Vision Pro que en esencia te permitirán utilizar este visor como una especie de Mac (algo que predije hace unos días atrás por mis redes sociales), por lo que al inicio aunque quizás no tengamos muchas aplicaciones específicas para el Vision Pro, posiblemente si tendremos muchas aplicaciones clásicas disponibles ante nuestras manos y ojos en el mundo virtual. Es bueno notar que en la presentación pudimos ver algunos ejemplos bastante buenos de uso del Vision Pro, destacándose el uso del Vision Pro para ver juegos deportivos en vivo de forma virtual sin tu tener que estar en el campo de juego (esto se logra con cámaras especiales que se colocan en los eventos deportivos), lo que serviría también para ver conciertos, asistir a conferencias, etc. Disney también traerá muchas experiencias para el Vision Pro, en juegos, películas y otras experiencias dedicadas. Ya imagino poder ver a AVATAR en 3D en esto. Apple también anunció versiones especiales de casi todas sus Apps que estarán disponibles para el Vision Pro, el cual según Tim Cook (el CEO de Apple) esta es la evolución del iPhone, a lo que llaman “Computación Espacial” (“espacial” no como en espacio de cohetes y naves y estrellas, sino como espacio de trabajo volumétrico). Sin embargo para mi dos cosas que van a seducir a los usuarios del Vision Pro (o al menos a aquellos que puedan pagar su precio inicial) son las implementaciones de cámara y FaceTime de Apple. Con la cámara ahora podrás capturar videos en 3D del mundo a tu alrededor, los cuales ahora podrás almacenar como memorias digitales futuras o para compartir con tus familiares y amigos para que estos tengan una experiencia muy similar a la que tuviste tú el día que lo grabaste. Esto tendrá un gran impacto emocional que estoy seguro será replicado por la competencia muy rápidamente. Y con respecto a FaceTime, Apple creó una tecnología que con Inteligencia Artificial y los sensores del Vision Pro pueden generar un avatar ultra-realista y totalmente fotorealista de tí mismo, lo que significa que si haces una video-conferencia con otros usuarios de Vision Pro, todos se verán con sus caras reales en medio de reuniones. Así que imaginen por ejemplo una reunión de negocios en mesa redonda, o un grupo de familiares remotos reunidos todos frente a una fogata, en ambos casos aun tengamos el visor puesto, del otro lado nos percibirán como somos y con todo nuestro rango de expresiones, lo que creará una conexión humana muy diferente a los otros sistemas de chat virtuales existentes en donde otro “muñeco” que más o menos se parece a ti te reemplaza. Esta funcionalidad es otra que creo será también estándar en visores de la competencia eventualmente. Ahora bien, hasta aquí todo bien, yo incluso estaba esperando ya con mi tarjeta de crédito a mano listo para ponerme en la lista de ordenar uno o dos de estos aparatos, sin embargo, hay tres cosas en las que opino Apple falló esta vez y que me detuvieron (en donde la primera de ellas fue realmente la que me detuvo más que todo): Lo primero es el precio de US$3,499 dólares (no es un error tipográfico, sí, tres mil quinientos dólares esencialmente), con salida al mercado a inicios del 2024. Para mi (y algo me dice que para la vasta mayoría de personas fuera de Apple) este precio es demasiado alto, incluso bajo los estándares de Apple. A este precio salvo un nicho de personas (de clase alta, desarrolladores de software, y los más fieles entre los fieles fanáticos de Apple) van a comprar este dispositivo, y aunque estoy seguro que se venderán unos cuantos cientos de miles o bajas millones de unidades, a este precio este no es un producto con el cual una empresa puede revolucionar este mercado. Para mi, un precio que hubiese sido irresistible es US$999 dólares, e incluso hasta US$1,499 hubiera tenido ventas excelentes (y la bendición de mi cuenta familiar), y si consideras que esto podría hacer la labor de una Mac o iPad quizás hasta te puedas convencer a ti mismo de pagar US$1,999, pero US$3,499 es demasiado. Y ese precio me pone a pensar. ¿Por qué tan caro? ¿No sabían los estudios mercadológicos internos de Apple que este precio sería demasiado alto para consumidores? Asumiendo que Apple no esté alucinando, creo que Apple nos ha dejado una pista de por qué ese precio es el que es, en el mismo nombre del dispositivo. El “Pro” en “Apple Vision Pro” me dice que Apple posiblemente considera este primer dispositivo más que todo como una demostración de todo lo posible que pueden lograr, un dispositivo sin igual que aun con ese precio será comprado por un nicho inicial del mercado, en particular el de desarrolladores de software, y más adelante nos presentará (¿quizás el próximo año?) su simplificado “Apple Vision” (sin el “Pro”) a un precio muchísimo más reducido y con ciertos recortes (por ejemplo, sin mostrar tus ojos holográficamente en una pantalla externa), y quizás a mitad de precio. Sin embargo, hasta que no bajen el precio por debajo de la barrera psicológica de los US$999 (o incluso quizás los US$1,499) será difícil que Apple logre vender 20, 10 o incluso 5 millones de estos dispositivos al año. La segunda cosa que me sorprendió es que la batería externa que requiere el Vision Pro solo es suficiente para 2 horas de uso. Como mínimo Apple debió apuntar a 4 horas, incluso si fuese una batería un poco más grande y más costosa (por suerte, estoy seguro que el mercado de terceros proveerá reemplazos a precios razonables y de mayor duración). Y la tercera cosa que veo es que Apple pudo haber hecho una cosa para convencer a muchos de adquirir un Vision Pro incluso a ese precio exorbitante: Compatibilidad directa con aplicaciones de Mac. Esto último para mi hubiese sido clave. Imaginen por ejemplo que trabajan remotamente o incluso en una oficina pequeña, o están de viajes. En vez de cargar una laptop contigo, simplemente llevas un teclado, un ratón y el Vision Pro, y en un abrir y cerrar de ojos (literal) ves frente a ti un monitor virtual del tamaño que desees (literalmente, desde 32” hasta varios metros de ancho) en donde aparece tu Mac virtual y en donde puedes trabajar de una forma super productiva en cualquier lugar. Podrías por ejemplo estar en un asiento de avión y sin embargo percibir que tienes varias pantallas (una por aplicación si así lo deseas) flotando delante de ti, y sin que nadie pueda ver tus pantallas por motivo de privacidad. Eso para mi representa una oportunidad perdida de Apple de haber podido captar una gran cantidad de profesionales (yo hubiese sido uno de ellos). En este aspecto por ahora solo cuesta esperar a que los desarrolladores migren todas sus aplicaciones una a una para que se puedan utilizar adecuadamente en el Vision Pro (algo que creo sucederá tarde o temprano), por lo que en mi caso me veo con un Vision Pro en mis manos dentro de una o dos generaciones más (y mientras tanto existe también la posibilidad de utilizar aplicaciones como Google Docs en el navegador web Safari del Vision Pro). Ahora bien, ¿significa esto que el Vision Pro es un producto adelantado a su tiempo o que Apple va a fracasar con esto? No en lo absoluto. Aun si no se venden suficientes unidades, esto ya de por sí ha marcado el rumbo a seguir en la industria, y en una sola presentación de unos pocos minutos Apple ha dejado claro que ya el dispositivo contra el cual todos los demás serán juzgados es el Vision Pro, lo que al mediano plazo le cae bien a Apple ya que cuando por fin logre bajar los precios para un modelo más amigable a los bolsillos de los consumidores, estos estarán listos para comprar. Esto de paso es un gran paso para la industria de la realidad virtual y aumentada en general, ya que Apple acaba de revelar y demostrar nuevas formas de interactuar que son más humanas, naturales y amigables a los modelos actuales, cosa que sin duda aumentará la curiosidad de los consumidores y la adopción de dispositivos de todas las marcas. Meta (Facebook) debe estar ahora mismo bastante emocionada con lo presentado por Apple, pues aunque incluso su recién-revelado Meta Quest 3 no se acerca a casi nada de lo que hace el Vision Pro, este anuncio de Apple sin duda que creará más hambre a la población de ver de qué se trata todo esto que Apple les está presentando, y el Meta Quest 3 con un costo de apenas $499 ya se ve mucho más atractivo que antes (y quizás lo ponga debajo de mi arbol de navidad este año). El trabajo de Apple ahora es refinar el Vision Pro y ofrecer algo a un precio mucho más razonable antes de que sus innovaciones sean duplicadas efectivamente por la competencia a un costo mucho menor (cosa que no será tarea fácil, puesto que estoy seguro que los costos de las partes del Vision Pro de por sí ya son bien altos, incluso para Apple que por sus altos volúmenes de compra obtiene casi siempre los mejores precios del mercado de sus suplidores). En conclusión, el Apple Vision Pro es un dispositivo tecnológicamente deslumbrante cuyo gran ancla a la hora de venderse es su precio exorbitante. Apple debió sacar también una versión “no Pro” (cosa que creo hará al mediano plazo), pero mientras tanto es una gran demostración tecnológica que resuelve muchos problemas humanos en interfaces para este tipo de entornos, y que por tanto hace un tremendo aporte al futuro de la computación personal y profesional. autor: josé elías |
22 comentarios
738,962 vistas |
Apple / OS X , Futuro Digital , Opinión / Análisis , Predicciones , Realidad Virtual , Tecnología Visual , Video-juegos |
martes, diciembre 21, 2021
|
Hola amig@s lectores,
Antes de finalizar el año quiero hacer una breve reseña de las cosas tecnológicas más relevantes de este año 2021, desde sorpresas hasta cosas que cambiarán nuestras vidas en el futuro. Así que sin mucho más que decir, y sin ningún orden en particular, he aquí mi lista: 1. Iniciativa del Año: El Metaverso, por Meta (previamente llamada Facebook) El Metaverso no ha sido inventado por nadie en particular, pero Mark Zuckerberg se apropió del término y hasta renombró a su empresa Meta para demostrar lo serio que está con este tema. Y aunque falta ver si Meta será el principal o uno de los principales jugadores en todo esto del Metaverso (piensen de ello como el inicio a un mundo similar al de Matrix), lo cierto es que hay que darles crédito por no solo popularizar el término en la cultura popular, sino por animar al resto de a industria a tomar el concepto totalmente en serio. 2. Tendencia del año: NFT Si hay algo que junto con el Metaverso será parte fundamental de nuestro futuro tecnológico, es el concepto de los NFT (o Tókens No-Fungibles), que son el equivalente digital a tu ser propietario de cosas en el mundo fuera del ciberespacio. Lean más sobre NFTs aquí. 3. Palabra del año: NFT Y en segundo lugar "Metaverso". 4. Cripto-plataforma del año: Ethereum Aunque Bitcoin fue lo que indudablemente puso el tema de las criptomonedas en el mapa, en realidad ha sido Ethereum con su plataforma y su Ether que han estado revolucionando el espacio de las cripto-transacciones, permitiendo no solo pagar con monedas digitales sino proveyendo herramientas para crear toda una nueva generación de aplicaciones desentralizadas (como los NFTs). Y si les interesa el cripto-trading, acá un artículo al respecto. 5. Visor de Realidad Virtual del Año: Oculus Quest 2 Aunque este visor salió el año pasado, continúa al día de hoy siendo la mejor introducción al Metaverso que puedan comprar, y lo mejor de todo es que dependiendo dónde y cuándo compren su precio ronda entre los US$250 y US$300 dólares, que en mi opinión es una mejor compra que una consola tradicional de video-juegos que cuesta mucho más y no ofrece ni cerca del grado de inmersión que este equipo ofrece. Esta es una de las compras tecnológicas que más recomiendo a cualquiera. 6. Innovación Cinematográfica del Año: Empate entre (1) la cámara DJI Ronin 4D con tecnología flotante y LIDAR, y (2) la tecnología Cinema ProRes en el iPhone 13 Pro. La cámara DJI Ronin 4D es una cámara totalmente diferente a todas las que vinieron antes. No solo tiene un diseño en donde el sensor y el lente flotan delante de la cámara (para hacer imágenes super estables) sino que además incluye tecnología LIDAR para enfocar, lo que significa que la cámara crea una representación tridimensional de su entorno por medio de rayos láser para saber la distancia exacta entre el lente y el sujeto a grabar, permitiendo enfocar de manera super precisa no solo de día sino incluso en casi total oscuridad (la tecnología LIDAR es utilizada también por algunos fabricantes de automóviles robóticos para entender su entorno). Y en cuanto a la tecnología Cinema ProRes, de alguna manera Apple logró meter dentro del espacio de un celular (en este caso la versión Pro del iPhone 13) un encodificador del estándar de codificación de cine, ProRes, lo que le permite grabar video en crudo con una calidad que hasta ahora era solo posible en cámaras que costaban decenas de miles de dólares. Y de paso le agregaron un modo de desenfoque computacional a las imágenes para darle un "look" más cinemático a los videos. Si tienen un iPhone 13 Pro noten que esto deben activarlo en Configuración, y que si no saben lo que hacen no recomiendo lo utilicen ya que este tipo de videos genera archivos varias veces más grandes que videos normales. Esto está diseñado específicamente para profesionales que necesitan la más alta calidad posible (que tampoco será evidente hasta que sepan como manipular los parámetros del video generado para cambiar su exposición y otros factores). 7. Cámara Computacional del Año: Google Pixel 6 Hay dos maneras principales de crear imágenes fotográficas: De forma óptica (es decir, lo que sea que entre al sensor por el lente) y de forma computacional (es decir, se toman datos del lente y después se mejoran con computación), y un ejemplo de fotografía computación es la funcionalidad que popularizó Apple que permite desenfocar el fondo de una foto después de esta haber sido tomada. Sin embargo ha sido Google quien ha llevado esto a otro nivel con su nuevo celular Pixel 6, que en mi opinión es el mejor valor por tu dinero en el mundo Android en estos momentos. 8. Tecnología Revolucionaria del Año: Los procesadores M1 Pro/Max de Apple Cada cierta cantidad de años una tecnología surge que estremece los cimientos de su industria ocasionando grandes cambios, y la serie de procesadores M1 Pro/Max acaban de hacer eso. Estos procesadores no solo han creado un abismo en la relación precio/rendimiento entre Macs y las tradicionales PCs con Windows, sino que han creado toda una revolución que ahora están forzando a Microsoft y los demás participantes del mundo Windows a adoptar procesadores con tecnología ARM. Solo para que tengan una idea, una laptop MacBook Pro 2021 con el procesador M1 Max puede manipular en tiempo real hasta 7 fuentes de video 8K en crudo y HDR, lo que significa el manipular 56 veces más flujos de datos en tiempo real que un video 4K tradicional. Lograr eso en una PC tradicional requiere en la actualidad de comprar tarjetas de video especializadas que cuestan por sobre los US$5,000 dólares, y aun así no pueden manejar 7 flujos de 8K HDR simultáneos. Y todo eso lo hace un solo chip dentro de una MacBook Pro ahora. Y esto no es solo mercadeo. Todas las pruebas que ya se han hecho públicas por profesionales creativos han confirmado que una MacBook Pro M1 ya es entre 3 y 15 veces más rápida que una PC super potente costando varias veces más, utilizando el mismo programa en ambas máquinas (como Photoshop, Lightroom, etc). Y como si fuera poco, Apple logra todo eso con un super bajo consumo energético que permite que todo ese poder se pueda utilizar en una laptop corriendo en batería todo el día, sin conectar la corriente eléctrica a una pared, mientras que en el mundo Windows hacer lo mismo por lo general significa PCs de escritorio con power supplies halando al menos 250 vatios continuos como mínimo. Esto está provocando una ola de adopción y migración hacia Macs como nunca antes vista en la historia de Apple, y acelerando la llegada de una nueva generación de procesadores ARM para Windows en el 2022. Aprende más sobre la tecnología de chips propietarios de Apple aquí. 9. Sistema de Computación Personal del Año: Apple MacBookPro M1 Pro/Max Debido a las razones enumeradas en el punto anterior, en estos momentos no hay nada ni siquiera remotamente cercano a lo que puedes obtener en términos de rendimiento por tu dinero al comprar una MacBook Pro 2021 con procesador M1 Pro o M1 Max. 10. Innovación Cotidiana del Año: AirTags de Apple Los AirTags son objetos del tamaño de monedas grandes que dejas en tu automóvil, mochila, mascota, cartera o cualquier cosa que se te pueda perder o te puedan robar, y que te permite localizarlo rápidamente. Los AirTags es bueno notar que no tienen función de GPS con ellos, sino que dependen de que cerca de ellos existan personas con un iPhone, ya que Apple ha creado una red global en donde todos los iPhones del mundo se comunican de forma segura con los AirTags, y reportan su ubicación. Así que por ejemplo si te roban tu automóvil, y dejaste un AirTag adentro, es bastante posible que en algún momento algún desconocido que tenga un iPhone estará cerca de tu vehículo, en cuyo caso el AirTag se comunicará contigo y sabrás donde está tu auto (y claro está, que como todo en la vida, esto tiene sus usos buenos y malos como ya ha sido reportado de bandidos pegando AirTags a autos que desean robar para saber la ubicación de su propietario). 11. Sorpresa visual del año: La cámara Nikon Z9. Nikon salió literalmente de la nada con una cámara mirrorless (sin espejo) que ha no solo dejado atónitos a todos sino que dejado hasta mal parada a la competencia. Esta cámara aparte de poder disparar fotos a 20fps en RAW, 30fps en JPG, también tiene un modo especial para capturar 120 fotos por segundo en menor resolución. Esto la hace en una cámara ultra potente para deportes y acción. La cámara además tiene 45 Megapixeles con un impresionante rango dinámico lo que la hace también excelente para fotografía de bodas, retratos artísticos, y moda. Como si fuera poco graba video crudo con resolución 8K lo que de paso la hace una máquina ultra potente para el cine profesional. Una actualización gratuita próxima le permitirá grabar video12-bit 8K N-Raw y 4K ProRes RAW internamente, con 8K/60fps. Algo inaudito. Como si fuera poco, tiene un ultra-rápido sistema de enfoque automático 3D que se asegura que tus fotos salgan nítidas sin importar cuánto se mueva el sujeto que estás capturando en fotos o video. Y noten que aunque la cámara cuesta US$5,500 dólares, que eso es más barato que las cámaras de gama alta de Canon (la EOS R3) y Sony (la A1). 12. Renacimiento del año: Nikon Gracias a su cámara Z9, la empresa se acaba de levantar como el ave Fenix de sus cenizas. La empresa no ha podido fabricar suficientes para satisfacer la demanda. 13. Herramienta de Desarrollo de Software del Año: Microsoft Visual Studio Code No confundir con su otro producto llamado simplemente "Visual Studio", esta es la versión open-source que se ha tornado indispensable para toda una nueva generación de desarrolladores de software, gracias a su expandabilidad por medio de plug-ins que expanden su funcionalidad a esencialmente cualquier área imaginable de la computación. 14. Plataforma de Desarrollo Multi-Plataforma del Año: Google Flutter Si planean arrancar desde cero un App que deba compilar tanto para Android como iPhone, iPad, y ahora hasta Web, Windows, Linux y Mac, no creo exista mejor opción en el mercado que Flutter de Google. No solo genera Apps multi-plataforma sino que de muy alto rendimiento, y la más reciente versión ahora incluye librerías para video-juegos 2D de alto rendimiento. 15. Plataforma de Streaming del Año: Disney+ Disney+ no tiene ni cerca del contenido de Netflix, sin embargo se ha enfocado en algunos nichos que ha hecho que despegue más rápido que Speedy Gonzalez. Parte de su truco ha sido capitalizar sus franquicias de Marvel, creando series originales que solo se pueden ver por esa vía, como la excelente Loki. 16. Tecnología Científica del Año: El James Webb Space Telescope Si todo sale bien este telescopio se lanzará este próximo 25 de Diciembre 2021, y durará 1 mes para llegar a su destino a 1.5 millones de km de distance a un punto calmado y equilibrado grabitacionalmente, en donde desplegará una gran sombrilla espacial para bloquear la luz solar y poder observar el universo en tranquilidad como ningún otro instrumento en la historia de la humanidad. Su misión principal será la de observar los primeros 100 a 250 millones del años después del Big Bang (es decir, cuando nuestro universo era un bebé) para así entender mejor nuestros orígenes. Sin embargo la ciencia que hará será mucho más extensa que eso, tocando todos los campos de la astronomía y astrofísica a nuestro alcance, desde agujeros negros y posible materia oscura hasta la evolución de galaxias y el estudio de objetos exóticos como los cuásares. El lanzamiento de este instrumento es algo que hemos estado esperando desde el 1989 (a un costo de casi 10 mil millones de dólares) cuando se propuso por primera vez, por lo que esta será la misión con más nervios jamás lanzada al espacio por la humanidad. 17. Avance de Salud del Año: AlphaFold por DeepMind DeepMind es una inteligencia artificial de Google, y uno de los proyectos en que participó se llama AlphaFold, que ha permitido en tiempo record predecir como se doblan de forma tridimensional todo tipo de moléculas, específicamente proteínas de ADN. Esto es un paso monumental que en pocos años acelerará el descubrimiento de medicinas y tratamientos para todo tipo de enfermedades. 18. Viaje Espacial del Año: William Shatner (“Captain Kirk”) en la nave de Blue Origin Jeff Bezos (fundador de Amazon y Blue Origin) ganó muchos puntos de mercadeo este año al anunciar que enviaría al espacio a William Shatner, mejor conocido como el Capitán Kirk en la serie clásica de Star Trek ("Viaje a las Estrellas"), logrando con eso un sueño de muchos geeks de ver a este actor subir al espacio en la realidad. 19. Empresa Espacial del Año: SpaceX ¿Qué más podemos decir de esta empresa? Sencillamente no tiene igual. No solo hizo decenas de pruebas y lanzamientos (de cargo a naves espaciales exploratorias, de viajes a la Estación Espacial Internacional, y subiendo todo tipo de satélites), sino que está bien encaminada a cumplir su misión de llevar la humanidad al planeta Marte, como lo prometió su fundador Elon Musk. 20. Nave Espacial del Año: StarShip de SpaceX ¿Podrían imaginar un edificio rascacielos no solo despegando sino que volviendo a aterrizar de espalda nuevamente? Pues eso es exactamente lo que hace la nave StarShip que en el 2021 SpaceX logró demostrar que podrá cumplir su misión no solo de subir grandes cantidades de cargo al espacio, sino de llevarnos al planeta Marte. 21. Tecnología Espacial del Año: StarLink de SpaceX ¿Internet satelital de alta velocidad y baja latencia en cualquier parte del mundo y a un costo razonable? Envíenme el contrato rápidamente... Elon Musk es un genio certificado. 22. Empresa Automovilística del Año: Tesla Tesla casi por su propia cuenta ha sido la principal responsable a nivel mundial de popularizar los vehículos eléctricos, y no vemos fin a su buena racha. Cuando salga a la venta el Cybertruck será todo un fenómeno de ventas y de cultura popular. Una vez más, Elon Musk a la cabeza. 23. Personaje del Año: Elon Musk No hay sorpresas aquí. Este año ni siquiera hubo competencia remota para un segundo lugar a ponderar. Este hombre se está consagrando como el Leonardo DaVinci de nuestros tiempos, y todavía le falta mucho por vivir. autor: josé elías |
4 comentarios
1,038,720 vistas |
Apple / OS X , Cámaras Digitales , Celulares / Móviles , Ciencia , Cine / DVD / Blu-ray , Google , Negocios , Opinión / Análisis , Realidad Virtual , Redes Sociales , Salud , Software , Tecnología Espacial , Tecnología Visual , Vehículos , Video-juegos , Windows / Microsoft |
domingo, julio 4, 2021
|
Hola amig@s lectores,
Microsoft está en un renacimiento. Hace 7 años (en el 2014) la empresa tomó una decisión bastante importante al elegir a Satya Nadella como su nuevo CEO, y ese mismo día escribí un artículo con mi opinión al respecto (que recomiendo leer para poner en contexto lo que escribo hoy), expresando lo que creía debería hacer ese hombre si quería sacar a Microsoft del agujero negro que la había metido Steve Ballmer, y curiosamente Nadella se enfocó en precisamente las cosas que sugerí debía enfocarse, poniendo atención al sector empresarial (miren el éxito de Azure en la nube), eliminando cientos de productos (lo cual hizo), hacer Windows gratis (que lo acaba de hacer en el anuncio de Windows 11 hace unos días), y concentrarse también en el mercado de consumidores (que es su nueva lanza y de la cual les voy a hablar hoy). Si se leyeron el artículo que sugerí en el párrafo anterior ya entenderán que Microsoft ha estado pasando por unos momentos muy transformadores en la última década, y si hay algo que puedo decir para resumir los últimos 7 años de Microsoft bajo la tutela de Nadella, es que se ha ganado una calificación de “A” en ejecución. Estoy seguro que muchos hubiesen querido ver el recién anunciado Windows 11 varios años antes, y ver el Microsoft que tenemos hoy (que incluso ha abrazado la cultura de Linux bajo su organización, algo que hubiese sido inaudito bajo Ballmer o Bill Gates) mucho tiempo atrás, pero hay que entender también la titánica labor que tenía Nadella bajo su liderazgo: Primero tenía que desmontar toda la burocracia impuesta por Ballmer dentro de la organización, enemistarse de cientos de Project Managers, ganarse la confianza de los desarrolladores internos, y mientras hacía malabarismo con esas tareas de paso trazar el rumbo futuro de Microsoft, eficientizar la empresa, y desarrollar una nueva generación de productos y apostar a la Nube, los video-juegos, y de vuelta al sector de consumidores. Para mi a Nadella no le están dando el debido crédito de lo que ha logrado en tan relativo poco tiempo. Literalmente se ha ganado mi admiración. Sin embargo, y desafortunadamente para Microsoft, la vida fuera de sus paredes corporativas continuó, y empresas como Google, Amazon y Apple se adelantaron en todas las áreas que Microsoft tenía debilidades, o que desantendíó. Hoy día Amazon AWS es el líder indiscutible en soluciones en la nube (aunque gracias a Nadella, Microsoft Azure ya es un número 2 creciendo vertiginosamente), Google Docs le ha comido gran parte del mercado a Microsoft Office, GMail Corporativo le ha comido gran parte del negocio a Microsoft Exchange y Outlook, Internet Explorer fue aplastado por Google Chrome, MySQL ha estado comiendo sin piedad el mercado de Microsoft SQL Server, Android y iOS completamente desterraron a Windows Mobile, y la Web junto a el iPad y macOS han estado haciendo a Windows (en un momento, la principal fuente de ingresos de Microsoft) en algo cada vez menos relevante. En esencia, Microsoft, que una vez era el epicentro del mundo tecnológico, cada vez está siendo desterrada más y más a los brazos exteriores de la galaxia tecnológica terrestre. Sin embargo, se ha hecho obvio que Nadella ha estado viendo hacia dónde soplan los vientos y esto lo ha hecho notar con varias decisiones que están ya tomando efecto exitosamente en el mercado. La empresa por ejemplo ha puesto un renovado interés en la versión online de Office 365, ha tomado un gran interés en Microsoft Teams (al punto tal que vendrá integrado por defecto en Windows 11), le da dado su corazón por completo a la plataforma de juegos Xbox (innovando con cosas como el GamePass), ha hecho de Azure su punto de lanza para el sector corporativo y de desarrolladores de software grandes y pequeños, se ha abierto a colaborar con soluciones de Linux, y ahora con Windows 11 está haciendo algo que muchos aun no han notado pero que sin duda es la razón principal de la existencia de Windows 11: Un ataque frontal al iPad, y por tanto a Apple. ¿Y por qué me refiero al iPad y no al iPhone o macOS en las Macs? Pues porque se ha hecho evidente que el futuro de la computación personal fuera de celulares inteligentes son las tabletas, o más específicamente, dispositivos compactos de fácil uso, gestionados mayoritariamente a través de tiendas de aplicaciones, con larga duración de batería, y con interfaces amigables y simples (y con la opción de convertirse en PCs o laptops por medio de teclados externos, monitores, ratones, etc). Apple no planea dejar por ahora el negocio de las Macs (y al contrario, ha apostado el doble a ese segmento con sus Macs M1 y próximas sucesoras), sin embargo a la empresa se la ha hecho evidente que en el sector de consumidores el futuro son dispositivos más parecidos en funcionalidad a un iPad que a una Mac, razón por la cual si son usuarios tanto de iPads como Macs ya habrán notado que las últimas tres versiones de macOS cada vez se acercan más a parecerse un interfaz de iPad, y estamos llegando a un punto tal en donde desde el punto del vista del consumidor final el iPadOS y el macOS serán casi la misma cosa. Es por eso que ya el iPad (particularmente el iPad Pro con el teclado y trackpad y soporte para monitores externos y ratones) ya están empezando a hacer funciones tradicionalmente de las Macs, e incluso ya hay cosas en las iPads en lo que son enormemente mejores (por ejemplo, el programa de dibujo Procreate con el Apple Pencil, que ya ha desterrado casi por completo a Photoshop en varios nichos). Y no duden que poco a poco veremos cada vez más y más aplicaciones “Pro” salir en simultáneo para iPad y Mac, y en particular gracias a que ya Apple ha entregado a desarrolladores una serie de herramientas que les permite hacer aplicaciones que funcionan en ambos ambientes. Así que habiendo dicho eso, podemos decir que el principal nuevo enemigo de Microsoft en el ámbito de computación personal (fuera de celulares) no es la Mac ni el iPhone, sino que el iPad. El iPad ha dominado tanto que incluso las tabletas Android son casi irrelevantes en ese mercado. La mayoría de tabletas Android (o Kindle de Amazon) que se venden se compran por su bajo costo y para labores usualmente específicas (para que los niños jueguen, o para leer, o para ver videos, y el ocasional uso de Google Drive o navegar el internet), y muy rara vez para labores profesionales o de uso continuo con aplicaciones equivalentes a una laptop. Y la razón es la calidad de las Apps. Desde el día 1 Apple diferenció el iPad del iPhone y creó una forma diferente de crear Apps optimizadas para el tamaño mayor de pantallas. Sin embargo en el mundo Android eso ha sido un reto ya que la mayoría de Apps en tabletas Android no son más que versiones ampliadas de la misma App en el celular, y la realidad es que son desastrosas en la mayoría de los casos, particularmente al compararlas con sus equivalentes en iPad. Sin embargo, es ahí donde entra Microsoft con Windows 11… Para mi el cambio más importante que ha dado Windows con la nueva versión es que por fin aparenta que será optimizado para tabletas (y sí, estoy súper consciente y he utilizado las Surface de Microsoft), y al Windows 11 soportar la arquitectura ARM para procesadores de eficiente consumo energético y menor costo, y al Microsoft hacer ahora mucho más fácil colocar aplicaciones en la mejorada tienda que estrenará con Windows 11 (y de paso permitiendo que se cobren productos y servicios por vías alternativas, a diferencia de Apple y Google que requieren que los pagos se realicen a través de sus propias pasarelas de pago), creo que esto hará por fin que una nueva generación de tabletas con Windows 11 salga al mercado, con precios bastante competitivos, ofreciendo la primera real alternativa al iPad en el mercado. Recordemos que hoy día muchos prefieren pagar entre 2 y 5 veces más por un iPad que una tableta Android debido a que las aplicaciones que utilizan y la experiencia de usuario que obtienen con el iPad son marcadamente superior a una tableta Android, pero si un usuario puede obtener aplicaciones de alta calidad, con elementos visuales optimizados realmente para tabletas, y en equipos de relativo bajo costo, creo que eso podría ser una fórmula ganadora para aflojar un poco el control de Apple en ese espacio. Y lo mejor de todo (para Microsoft) es que diseñó a Windows 11 con un núcleo que se puede adaptar a distintos factores de uso, por lo que no me sorprendería en un futuro ver un dispositivo “Microsoft TV Stick” similar al Amazon Fire TV, o interfaces para automóviles y casas inteligentes con tecnología de Microsoft. Y más intrigante aun, es que si Microsoft logra ejecutar bien y logra capturar una buena parte del mercado de tabletas, que podría quizás considerar volver entrar al mercado de celulares inteligentes con una nueva versión de celulares basados en futuras versiones de Windows, aunque algo me dice que por ahora eso es solo eso, una intrigante posibilidad y no el enfoque inicial de Microsoft con Windows 11. Otra cosa que aplaudo de Microsoft es haber tomado la sabia decisión de ofrecer a Windows 11 como una actualización gratuita para usuarios existentes de Windows 10 (un práctica que Apple lleva desde hace muchos años exitosamente), para así acelerar la adopción de su nueva estrategia, pues el nuevo Microsoft no es una empresa para ganar dinero vendiendo licencias de Windows sino vendiendo servicios (locales y en la nube), subscripciones, y obteniendo comisiones de ventas desde sus tiendas. Y finalizo diciendo algo que repito constantemente en mis artículos, comentarios y charlas: Estos tipos de desarrollos no solo son emocionantes sino que beneficiosos para todos, pues la competencia al final del día es una herramienta más para mejorar la vida de los consumidores. autor: josé elías |
8 comentarios
1,185,371 vistas |
Apple / OS X , Celulares / Móviles , Dispositivos , Google , Linux , Negocios , Opinión / Análisis , Predicciones , Software , Windows / Microsoft |
lunes, junio 14, 2021
|
Hola amig@s lectores,
Hoy quiero compartir con ustedes un tema que al menos a mi me ha hecho pensar bastante a través de los años, y trata sobre estudiar cuáles serían la limitantes en potenciales dioses/deidades en cuanto a su alcance de poder y conocimiento con respecto a las leyes de la física como la conocemos. Así que arranquemos hoy (síganme la corriente, todo se conecta al final) haciendo un paréntesis para hablar del concepto de “medir algo”, como podría ser medir la velocidad de un objeto en movimiento. Y sobre ese tema empecemos diciendo que en nuestra vida cotidiana medir a qué velocidad va un automóvil aparenta ser algo trivial y a lo que no hay que darle mucho pensamiento. Sin embargo, la realidad dista mucho de nuestro instinto… Y es contraituitivo ya que medir la velocidad de algo curiosamente afecta su velocidad. Y para entender esto, imaginemos un ejemplo en donde estamos totalmente a ciegas, en el medio del espacio, y que queremos medir la velocidad de una nave espacial que nos pasará por el lado. Hay varias formas de medir la velocidad de la nave (con respecto a nosotros), una de ellas siendo el poner algún tipo de banderita o meta en dos lugares distintos, y medir el tiempo que transcurrió entre la nave tumbar la primera banderita y tumbar la segunda, lo que nos daría su velocidad. Otra forma podría ser dispararle a la nave ondas de algún tipo (digamos, un rayo láser) en varios puntos de su trayecto, y medir el rebote de esas ondas hasta nuestro detector (similar a como funcionan los radares de velocidad en las autopistas). Sin embargo, sin importar la forma que sea que tratemos de medir esa velocidad, lo esencial a entender es que la única forma de medir algo (y eso por extensión incluye el concepto de “ver” algo) es directamente interactuando con lo que se quiere medir, sea haciendo que el objeto choque contra algo, o que le disparemos algo que rebote desde este. Y cuando entendemos eso, entendemos también que al hacer chocar el objeto o al dispararle algo al objeto, que literalmente estamos variando (aunque sea ultra-minúsculamente) su velocidad y/o trayectoria, por lo que el simple hecho de tratar de medir su velocidad exacta implica que variaremos esa velocidad por un monto desconocido (en exactitud) para nosotros. O en otras palabras, es imposible saber el estado exacto de algo, ya que el mismísimo acto de medir altera el resultado. Y si entendieron eso, felicidades, porque lo crean o no esta es una de las grandes conclusiones de la física del Siglo 20 con respecto al campo de la Mecánica Cuántica y ustedes acaban de entenderlo sin necesidad de complejas ecuaciones matemáticas. Hagamos ahora otro paréntesis y hablemos ahora de qué tan rápido podemos enterarnos de sucesos que ocurren en nuestro alrededor (y una vez más, síganme la corriente)… Imaginen que tienen un reinado galáctico en nuestra galaxia La Vía Láctea, la cual a propósito mide de ancho unos cien mil años luz (es decir, que si disparamos un rayo láser en un extremo de la galaxia este tardaría 100,000 años en cruzar la galaxia de lado a lado, viajando a unos 300,000 kilómetros por segundo que es la velocidad de la luz), así que asumamos que riges tu imperio desde el centro de la galaxia. Eso significa que al estar en su mismo centro, que las noticias de lo que ocurre en los lados exteriores de la galaxia te llegaría en aproximadamente unos cincuenta mil años (asumiendo que te comunicas a la velocidad de la luz). Ahora imaginemos que alguien te dice que en un planeta lejano en el borde de la galaxia llamado Tierra acaban de surgir unas criaturas llamados “Humanos” y que estos acaban de inventar el fuego. Sin embargo, dado que esa información tarda unos 50,000 años en llegarte, de ahí a que envíes un emisario a investigar lo que sucede en la Tierra, y que éste llegue allá para ver la situación, pasarán 50,000 años más, y lo más probable es que cuando éste llegue a la Tierra se tope ahora no con seres humanos en taparrabos creando fuego, sino con una sociedad relativamente avanzada que ya ha visitado todos los planetas de su Sistema Solar y que ya domina tecnologías como el Internet, los rayos láser, energía nuclear, tecnología de comunicación interplanetaria, etc. Ese emisario te envía ahora esa información, pero sucede que tomará unos 50,000 años más para que esa información te llegue. Y como imaginarán, las noticias que te llegarán son muy diferentes a las noticias originales. Pero peor aún, dado que han pasado unos 50,000 años más, para cuando te llegue la noticia es posible que esos Humanos ya o ni existan, o tengan ya tiempo explorando otras estrellas cercanas, e incluso quizás ya no se vean como los humanos de carne y hueso del Siglo 21, sino que serán unas criaturas cibernéticas o virtuales en el siglo 521 (de las cuales no sabes nada de cómo son, ya que para saberlo tendrías que volver a viajar 50,000 años más para averiguarlo y 50,000 años más para regresar la información). En conclusión, ser un Emperador Galáctico debe ser un trabajo bastante frustrante, ya que para cuando te llega información hace rato que esa información es irrelevante y obsoleta para tomar decisiones, debido a las distancias. Y no solo eso, si desearías no solo saber información de tu galaxia, sino de otras lejanas para conquistarlas, tu trabajo se haría peor aún ya que existen miles de billones de otras galaxias sin explorar, y el tiempo de respuesta para obtener información sobre ellas se extendería al orden de incluso los miles de millones de años. Y si entendieron este tema pues felicidades nuevamente porque ya acaban de aprender un poco sobre la Relatividad de Einstein y sus efectos sobre los límites que la velocidad de la luz impone en la comunicación de información. Y regresando a nuestro artículo original, ¿qué tiene esto que ver con dioses? Pues no solo bastante, sino que todo. Sucede que según las creencias de la mayoría de religiones, existen dioses que no solo son omniscientes (es decir, que lo saben todo), sino que son omnipotentes (que lo pueden hacer todo), pero esta sencilla realidad que les acabo de describir aparenta ir totalmente en contra de la existencia de ese tipo de dioses (pero ojo, que les hablaré más adelante sobre cómo sí es posible tener dioses que lo saben todo y lo pueden hacer todo, por lo que no dejen de leer aun si esto afecta alguna creencia o sensibilidad o les suena ilógico). ¿Y por qué va esto en contra de las concepciones tradicionales de dioses? Pues por el simple hecho de que un Dios no podría jamás saber en qué estado está nada, ya que el solo hecho de tratar de “leer” el universo lo estaría cambiando. Y no solo eso, el hecho de que exista una inmensidad del cosmos con límites de velocidad de información, también nos dice que existen límites para que estos dioses puedan no solo enterarse de lo que ocurre en el Universo, sino mucho menos actuar sobre esas ocurrencias remotas. Ahora bien, unos dirán que “Dios está por encima de todo eso, y no podemos asumir que se rige por las mismas reglas que este universo”, lo que creo es un argumento que independientemente sea válido o no, merece estudio, y de eso es que vamos a hablar a continuación… Sin embargo antes de continuar creo prudente hacer mención que independientemente del “plano” en que podrían existir seres hipotéticos con super-poderes sobre la naturaleza de nuestro universo, que creo lógico asumir que tales seres tendrían que de todas formas regirse por ciertas reglas y patrones, y el hecho de que existan reglas (incluso si son reglas que no pudiésemos comprender o estudiar) implica que en sus mentes debe existir algún cambio de estado (como por ejemplo, para poder tomar decisiones), y en donde sea que exista un cambio de estado por simple lógica podemos deducir que debe existir una serie de pasos por la que sus estados mentales pasan, y el hecho de que existan pasos nos dice también que debe tomar algún tipo de tiempo para que esos pasos se propaguen en su mente, y que incluso si la velocidad de propagación de esos estados fuese infinitamente mayor que nuestro límite de la velocidad de la luz, lo cierto es que debe haber un límite, y si existe un límite entonces debe haber un límite también al conocimiento y la velocidad con la cual se puede actuar. Habiendo hecho esa observación, quiero dejarles saber que sí existe una posibilidad (habilitada por la tecnología) de tener un Dios que pueda saber todo lo que ocurre en un universo, y para eso recurro a un ejemplo que he utilizado antes en artículos, charlas y videos: El una-vez-popular juego de Los Sims de Electronic Arts. Los Sims es un juego en donde simulas a una familia, que ves en tu pantalla haciendo sus quehaceres habituales que van desde ir a trabajar hasta bailar, y desde ir a hacer sus necesidades fisiológicas hasta tener bebés y cuidar de ellos. Lo interesante de ese juego es que en realidad es una simulación (de ahí su nombre, “Los SIMulados”), y que ocurre dentro de un ordenador (sea una PC, tableta, celular, consola de video-juegos o una máquina en la nube de Internet) por lo que desde el punto de vista de nosotros los jugadores ese universo de Los Sims realmente no existe de forma tangible en nuestro mundo físico, sino que existe exclusivamente de forma virtual como una simulación. Ahora bien, asumamos que tenemos una versión super avanzada de Los Sims, tan avanzada que cada personaje dentro del juego tiene un nivel de Inteligencia Artificial tal que son conscientes de su existencia, y que ellos realmente creen que existe el universo en donde habitan, e incluso ellos jurarían que perciben ese universo en toda su gloria tridimensional (aunque nosotros fuera de la simulación sabemos que ese mundo no es más que incontables bits binarios de unos y ceros corriendo como señales eléctricas en un microprocesador, y que lo que ellos perciben como tridimensional es una ilusión). Entonces, para este escenario, nosotros podríamos considerarnos dioses, y los simulados serían los Humanos. Esos humanos incluso medirían la velocidad de la luz en su universo simulado e incluso harían teorías sobre su existencia y procedencia (y quizás, hasta escriban artículos como este que estás leyendo). En este escenario entonces, el programador que inventó el juego de Los Sims podría pasar por Dios y en cualquier momento pausar el juego y analizar todas y cada una de las variables de este para determinar en cualquier momento todo lo que ocurre en el juego (como por ejemplo, en donde estaban ubicados todos los personajes, lo que estaban haciendo, el color de sus casas, la velocidad de sus vehículos, etc). En esencia convirtiéndose en un ser omnisciente, que lo sabe todo. Similarmente este programador podría en cualquier momento matar un personaje, hacer que aparezcan o desaparezcan objetos, y en esencia hacer cosas que para las leyes de la física de ese mundo de Los Sims se catalogarían como verdaderos “milagros” ya que desafían las leyes matemáticas que ellos dedujeron, en esencia convirtiéndose el programador también en un ser omnipotente, que lo puede todo. Ahora bien, cualquiera que haya leído estos últimos párrafos diría “¡todo esto es clara lógica de que podrían existir dioses!”, pero no nos adelantemos aun… Aquí entran en juego un par de cosas. La primera es, que un juego como Los Sims es bastante sencillo, con unos cuantos personajes en la memoria de una máquina, pero cuando hablamos de un universo completo tendríamos que estar hablando no de 10 o 20 Sims, sino que de trillones de trillones de trillones de seres, sin ni siquiera hablar aún de los quintillones de sextillones de septillones de átomos y partículas subatómicas que componen un universo como el nuestro, por lo que si un ser quisiera “pausar el universo” para saber su estado exacto en ese punto del tiempo, le tomaría un tiempo increíblemente largo para saber toda esa información, y más aún, le tomaría un cerebro al menos del mismo tamaño que todos los átomos del universo simulado para poder almacenar toda esa información y procesarla, y sin mencionar espacio adicional para poder hacer optillones de decillones de zetallones de cálculos para saber qué hacer con toda esa información, y todo eso solo para saber el estado de un microsegundo pausado de la simulación, de los miles de millones de años de su existencia. O en otras palabras, hablamos de un ser cuyo tamaño y alcance nuestra imaginación realmente no podría empezar a entender. Y la pregunta es, ¿podría existir un ser así? La respuesta la dejo a juicio de ustedes. Ahora bien, el segundo tema para mi es aún más interesante ya que podemos llegar a una clara gran conclusión al respecto: Si realmente este Ser Supremo puede pausar y analizar nuestra simulación y de alguna forma poder saber todo lo que ocurre en nuestro universo, el simple hecho de que esta sea una simulación la hace necesariamente determinista (lógicamente debe serlo para poder ser analizada con 100% de precisión) y eso nos lleva a la obvia conclusión de que entonces todo ese universo es determinista al 100%, y por tanto todas sus leyes físicas también lo son, y por tanto todos los seres que habitan ese universo también actúan de forma determinista por obvia extensión. ¿Y qué significa eso? Esto significa que en un universo en donde exista una deidad superior que sea omnisciente, que por pura deducción lógica el universo que este comanda debe ser totalmente determinista, lo que automáticamente elimina el concepto del libre albedrío, ya que todo ser viviente estaría siguiendo en todo momento un patrón de reglas totalmente predeterminadas, y eso significa que incluso cuando matara a alguien o cuando comiera una manzana prohibida que ese ser no estaría actuando bajo su propio juicio sino que lo estaría haciendo de forma robótica, siguiendo una receta de pasos (producto de la programación de la misma deidad), aun sienta la sensación de que está tomando acciones por su cuenta. Esto entonces implicaría que en tal escenario, sería ridículo pensar que tal deidad que rige el universo pueda castigar a alguien por algo que esa persona hizo, ya que lo que hizo la persona nunca fue hecho por voluntad propia sino que siguiendo un patrón predeterminado necesario para que la deidad sepa lo que hizo. O en otras palabras, todo el bien y el mal del universo sería un producto directo de las reglas físicas con las cuales la deidad dote a ese universo. Los lectores más técnicos podrán decir entonces “quizás esa deidad introduce aleatoriedad en el universo”, pero al hacer eso la deidad automáticamente perdería su capacidad de predecir lo que va a ocurrir, que es otro de los poderes que vienen por defecto sobre un ser que supuestamente es omnisciente. Similarmente, uno podría también decir “pero quizás esta deidad trata los seres conscientes de su existencia de forma diferente a los demás elementos físicos del universo, y les introduce un ‘alma’ que actúa en un plano diferente al del universo en que existen esos humanos, para así permitirles libre albedrío”, pero aquí una vez más, tenemos evidencia de que este no puede ser el caso, como explico a continuación… Sucede que sabemos de miles de casos anuales en la literatura médica de personas que sufren averías en sus cerebros por causas de accidentes, y muchas de estas personas al sucederles estos accidentes cambian por completo su personalidad, o pierden ciertas habilidades cognitivas, o se modifican en formas impredecibles. Si realmente la mente humana habitara un plano fuera de lo físico, la personalidad de estas personas no pudiese haberse modificado en lo absoluto ya que un accidente de automóvil en este simple universo para nada deberían afectar al plano “superior” externo de nuestra existencia. O en otras palabras, el simple hecho de que estas personas sufran trastornos en sus mentes es evidencia clara y contundente de que no existe un alma fuera de nuestro mundo físico que rige sus vidas. Esto significa entonces que estamos ante una encrucijada bastante simple en su pronunciamiento pero bastante impactante en sus repercusiones, pues la encrucijada dice que tenemos que elegir entre en cual tipo de universo nos encontramos: 1. Si estamos bajo un universo controlado por una deidad eso nos dice que entonces no tenemos libre albedrío y que no importa lo que hagamos ya que todo lo que hagamos (desde amar hasta matar) ya está predeterminado. 2. Y por otro lado esta encrucijada nos dice que si estamos en un universo aleatorio y evolutivo que entonces nuestras acciones tienen peso y que somos responsables de nuestras vidas y que ninguna deidad puede tener conocimiento ni control de nuestras acciones. Y la gran pregunta de mi hacia ustedes es, ¿en cuál de estos universos creen que se encuentran? Leer el resto de este artículo... autor: josé elías |
39 comentarios
1,180,467 vistas |
Ciencia , Curiosidades , Educación , Opinión / Análisis , Pregunta a eliax , Psicología , Realidad Virtual |
domingo, marzo 14, 2021
|
Hola amig@s lectores,
Hace unos días una obra de arte se vendió en US$69 Millones de dólares en la prestigiosa casa de subastas Christie’s, pero lo interesante de esa venta no fue el precio, sino el hecho de que lo que se vendió fue una obra de arte digital, de la cual cualquiera puede obtener una copia 100% exacta pixel-por-pixel y tenerla en su celular, tableta, laptop o incluso impresa. Así que viene la pregunta, ¿por qué alguien pagaría tanto dinero por algo tan fácilmente reproducible (a diferencia de por ejemplo un cuadro de Picasso en donde solo tú tienes “el original”)? Pues bienvenidos al nuevo mundo de los NFTs... Una nueva revolución tecnológica en el tema de la propiedad intelectual y la sociedad en general. Pero iniciemos con lo básico. NFT es un acrónimo en inglés que significa “Non-Fungible Token”, y ya de por sí resulta curiosa la definición. La palabra “fungible” es de uso muy infrecuente en español (e inglés), y en esencia se refiere a algo que se puede reemplazar por algo de lo mismo. Un ejemplo es una moneda de 1 peso. Si la intercambias por otra moneda de 1 peso continúas teniendo un peso. Sin embargo, si lo que tienes es (por ejemplo) una pintura de Picasso, no la puedes cambiar por otra pintura de Picasso y terminar con lo mismo, ya que son irremplazables, o no-fungibles. Así que en el mundo de los NFT no-fungible significa que el Token que obtienes (y que avala que eres el propietario) no es genérico y reemplazable, sino que es único y solo existe uno, similar a como existe una sola pintura en particular de Picasso sin otras copias exactas o que puedan intercambiarse. Y para continuar tenemos que hacer un breve paréntesis y explicar que los NFTs están ligados intrínsecamente a la misma tecnología que hace posible las criptomonedas, una tecnología llamada Blockchain (“Cadena de Bloques”). O en otras palabras, la misma tecnología que permite la creación y uso de algo como los bitcoins, es la que se utiliza en los NFTs. ¿Y qué es un Blockchain? En esencia es una técnica que permite agrupar una secuencia de datos en el tiempo de forma tal que matemáticamente es virtualmente imposible modificar cualquier elemento de la cadena para falsificarlo, removerlo o modificarlo, algo que se logra con una herramienta matemática llamada un “hash”, que no es más que una función uni-direccional en donde un bloque de datos puede generar un código (piensen de ello como una clave, pero pública) pero de ese código no se puede volver atrás para obtener los datos desde donde surgió (no se preocupen si no entienden bien esto, no es necesario para entender el tema de hoy). Así que con un Blockchain por ejemplo sería posible decir algo como “Hoy lunes Fulanito de Tal compró US$10 dólares en bitcoins”, y al otro día decir “Y hoy martes transfirió US$2 de esos bitcoins a Fulanita de Tal”, y así sucesivamente en transacciones posteriores, con la gran salvedad que aunque Fulanito tenga acceso total a su base de datos de Blockchain y trate de engañar al sistema borrando la transacción del martes, que no podrá hacerlo por más que intente, debido a que por su naturaleza los Blockchains funcionan de forma distribuida por lo que miles (o millones) de otras personas tienen también una copia de esas transacciones, por lo que Fulanito tendría que no solo hackear la base de datos de todo el planeta Tierra que aloje ese Blockchain (o al menos, la mitad de ellas más una), sino además reconstruir matemáticamente todos los hashes de esas transacciones desde el momento que él quiere hacer trampa hasta el día de hoy (algo que les aseguro no es trivial hacer, y se los dice alguien que entiende bien este tema de los hash, criptografía, etc). Habiendo dicho todo eso, hagamos una aclaración final: En el mundo de los Blockchains hay dos grandes tipos de transacciones que pueden ocurrir, (1) transacciones monetarias o de criptomonedas como son los bitcoins, o (2) transacciones sobre evidencias de que algo ocurrió, o como se les llama en la jerga de la industria, criptotokes, o simplemente Tokens (que en el caso de los NFTs ocurren por ahora en la plataforma Ethereum). De esos Tokens es que estamos hablando cuando nos referimos a los NFTs, y ejemplos de estos son documentos notarizados, títulos de propiedad, actas de nacimiento, pasaportes, etc. En el contexto de los NFT, por Token nos referimos entonces explícitamente a una evidencia digital de que algo te pertenece a ti. Y aquí es bueno hacer una curiosa observación: Mientras que las criptomonedas se basan en algo que es fungible (pues estas se consumen con su uso) y de uso anónimo (en la red bitcoin por ejemplo, nadie en teoría sabe en qué gastas tu dinero ni en dónde ni con quien), en el mundo de los criptotokens es todo lo contrario, en donde la idea es saber quien es el dueño de qué (por lo que es no-anónimo) y de paso es no-fungible (ya que no puedes “gastar” un contrato por más que le des uso). Así que regresando del paréntesis, vamos ahora armados con esa información a describir qué es un NFT, y por qué alguien pagó US$69M por una pintura digital... Un NFT es esencialmente una evidencia digital de que tú eres el propietario de algo, pero ojo, un NFT no necesariamente te da derechos de propiedad de la obra intelectual original, aunque es una opción. Una analogía es una pintura de Salvador Dalí. Este en vida hizo varias serigrafías (copias de alta calidad) de sus obras que firmaba con su propia mano de forma individual. Así que por ejemplo Dalí pudo haber hecho 100 copias en serigrafía de su obra “La Persistencia de la Memoria”, y firmado cada una de ellas a mano con una numeración del 1 al 100. Aunque estas no eran la obra original, hoy día valdrían mucho dinero ya que estarían firmadas por el mismo Dalí. Es un producto escaso y limitado que naturalmente incrementa el valor del artículo en cuestión. Similarmente, puedes hacer un NFT de una novela que acabas de escribir, y hacer 10 copias “especiales” de ellas en formato NFT que creas y vendes a través de un portal como opensea.io. Los que compren esas 10 copias saben que tienen una versión exclusiva que nadie más tiene, y que de paso tiene el nombre de ellos asociados a la obra para la eternidad en el Blockchain. Y no solo eso, sino que si tienes una de esas 10 copias, esa copia tiene un valor volátil basado en el mercado, y puedes traspasar ese NFT a otra persona vendiéndosela, y al hacerlo, esa transacción queda registrada en el Blockchain de manera irrefutable, y se tiene un histórico en todo momento sobre quien es el propietario de ese NFT. Y claro está, que (siguiendo la analogía con Dalí), quizás quieras vender el cuadro original junto con los derechos de su explotación comercial, en cuyo caso también puedes hacerlo con un NFT creando una sola copia y dotando a su comprador de todos los derechos (que como podrán imaginar, tiene un valor mucho más alto). Eso fue lo que hizo el artista denominado “Beeple” al vender su obra titulada “Los Primeros 5,000 días” en donde hizo un compuesto de 5,000 obras que hizo durante 5,000 días consecutivos, y cuyo precio inició en subasta en US$100 dólares y terminó en US$69 Millones de dólares. Muchos dirán que esto es una estupidez, ya que si es una obra digital cualquiera puede copiarla y tener una copia exacta para admirar en su casa impresa y puesta en un cuadro en la pared, pero la idea es que el comprador de ese NFT ahora no solo tiene derechos sobre la obra original sino que de paso puede decir que aunque millones de otras personas tienen “copias” que él o ella es la única persona que tiene derecho sobre un “original” (y su explotación comercial, pues algo interesante de los NFTs es que opcionalmente puedes recibir comisiones por su posterior venta, en esencia continuando recibiendo un ingreso mientras más uso le den al NFT). Esto es medio chocante ya que tradicionalmente uno piensa de un “original” como algo tangible (como un cuadro de Dalí colgado en un museo), y no como un simple algoritmo que diga que entre mil trillones de copias solo al de Fulanito de Tal es la original y que solo Fulanito de Tal puede explotar los derechos de esa obra (para vender t-shirts, hacer murales, trabajos derivados, etc). O en otras palabras, e independientemente de lo que alocado o no que le parezca esto a algunos, la gran revolución de los NFTs es que por fin dota a obras que son netamente virtuales/digitales de un mecanismo por el cual sus creadores (o futuros propietarios) puedan alegar derecho sobre la obra y explotarla de forma fácil y segura. Noten que un problema actual (antes de llegar los NFTs) que tenían muchos artistas digitales es que sus obras eran fácilmente copiadas en Internet, y se hacía bastante difícil comprobar quién es el original autor y propietario de la obra, cosa que ahora se hará trivial hacer ya que en el momento de un artista hacer una nueva obra, lo primero que podría hacer es crear un NFT de esta para que exista una evidencia en el tiempo de que él o ella es el original autor de la obra, y de paso utilizar este mecanismo para hacer trivial el poder venderla en mercados en línea. Es bueno notar que ya se ha formado una industria millonaria alrededor de los NFTs, y no solo con arte visual, sino con todo tipo de creaciones que puedan imaginar, desde canciones y novelas, hasta fotos de memorabilia o videos deportivos de la NBA. Incluso, ya hay video-juegos en donde puedes obtener objetos virtuales dentro del juego que solo controlas tú al comprarlos como un NFT (es decir, ni los creadores del mismo juego tienen derecho al objeto después que lo adquieres). Habiendo dicho todo eso, la pregunta ahora es, ¿Es esto una moda pasajera o algo con perspectiva de largo plazo?, y mi respuesta a eso es que creo será la nueva norma hacia el futuro. Hace tiempo que hacía falta una solución al tema de la propiedad intelectual en el mundo virtual/digital, y los NFTs caen como anillo al dedo como solución a ese problema, y de paso esto es bueno notar que pone de cabeza abajo la tradición de que cuanto tenías un objeto valioso lo que lo hacía valioso es que tenías el original, mientras que ahora todos pueden tener una copia exacta del original y lo que lo hace valioso es el NFT que avala que tú y solo tú eres el propietario de esa creación. Quiero finalizar este artículo con una preocupación (y así vemos el otro lado de la moneda): Aunque los NFTs son una excelente idea, hay un tema con su implementación actual y es que consumen una gran cantidad de energía (fuente) para su creación y verificación (similar al problema que tienen los bitcoins con su uso de energía actual en el minado), lo que significa que si se popularizan los NFTs (y todo apunta a que así será) que estamos dirigiéndonos a un futuro en donde tendremos una carga significativa de energía que podría traer serios problemas al medio ambiente terrestre. Solo esperemos que antes de que esto sea un gran problema que ya tengamos fuentes de energía renovables que puedan lidiar con la carga adicional... Nota: Si les gustan estos temas les recomiendo seguir el canal oficial de eliax en Telegram, o si desean interactuar conmigo y la comunidad eliax en general, consideren también unirse al grupo oficial en Telegram Actualización: Por si se interesan, he aquí el primer NFT creado por mí, y a la venta por si alguien se interesa (esto fue un experimento más que otra cosa, pero si quisieran tener una pedacito de eliax, aquí está). autor: josé elías |
10 comentarios
1,325,873 vistas |
Arte , Curiosidades , Derecho Digital , Educación , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Tecno-Seguridad |
domingo, febrero 28, 2021
|
Hola amig@s lectores.
Recientemente he abierto un Canal y un Grupo oficial de #eliax en Telegram y a diferencia de otros medios de eliax como Instagram, Twitter, o Facebook en donde el contenido es esencialmente el mismo de forma replicada, por Telegram encontrarán material adicional exclusivo y no disponible por ninguna otra de las redes sociales de eliax. Aparte del contenido habitual de eliax, compartiré además enlaces en crudo a cosas que encuentro interesantes en el día a día pero para los cuales no tengo tiempo para crear artículos elaborados o entradas en redes sociales, por lo que estarán consumiendo a eliax “en crudo” tras bastidores. Y de paso, ese será el medio por el cual además comentaré de uno-a-uno con varios de ustedes, y donde compartiré notas de audio (casi al estilo podcast) sobre cualquier tema que llame mi atención (o en respuesta a sus preguntas y/o comentarios). También por esa vía podrán encontrar de forma exclusiva mis acostumbradas predicciones sobre el futuro (ahora mismo encontrarán una sobre el futuro cercano de los microprocesadores y sobre lo que puede hacer en mundo ARM en Android y Windows para competir contra el Apple Silicon). Finalmente noten que la diferencia entre un canal y un grupo en Telegram es que en el canal sólo verán las entradas mías (junto a comentarios de la comunidad en un enlace debajo), mientras que en el grupo podrán comentar las entradas del canal así como subir sus propios contenidos que crean sean apropiado para la comunidad eliax. O en otras palabras, si quieren consumir solo todo el nuevo contenido de eliax (y no disponible en otras redes) y con poco ruido, subscríbanse al canal, y si quieren entrar con ambos pies a la comunidad eliax (y el posible ruido de centenares de comentarios de todo tipo que eso conlleva) entonces háganse miembros del grupo también. Noten que una ventaja de Telegram sobre WhatsApp y otras plataformas similares es que pueden descargar Telegram no solo para sus celulares, sino que además en versión nativa para tabletas, Windows, Mac, Linux y de paso pueden acceder también por página web si así lo desean. Y lo mejor de todo es que el contenido está siempre en la nube y por tanto ocupa muy poco espacio en sus celulares. ¡Así que no olviden subscribirse y los veo por allá! Canal oficial: t.me/eliax Grupo oficial: t.me/eliax_comunidad autor: josé elías |
2 comentarios
1,316,051 vistas |
Ciencia , Cine / DVD / Blu-ray , Curiosidades , Educación , General , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Redes Sociales |
sábado, noviembre 14, 2020
|
Hola amig@s lectores,
El día por fin llegó y este martes pasado Apple anunció las primeras Macs con su propio microprocesador integrado (tipo “SoC”, o Sistema-en-un-Chip) al que ha bautizado el M1, un chip derivado de los chips Ax utilizados en iPhones, iPads, AppleTVs y Apple Watches, y para muchos las primeras pruebas de rendimiento los ha tomado por real sorpresa, aunque quizás no tanto para otros que ya hayan leído mis artículos acá en eliax sobre el tema a través de los años (iniciando quizás con este en el 2007, que curiosamente pronosticó desde ese entonces con bastante certeza a la Apple de hoy). Y hablando de artículos técnicos, recomiendo fuertemente leer el artículo que escribí este pasado Julio 2020 titulado “Análisis #eliax: Apple Silicon, todo lo que querías saber (y lo que no sabías que te gustaría saber)” en donde expliqué en lujo de detalle (y en un lenguaje que personas no-técnicas pudiesen entender) qué es lo que hace diferente a estos microprocesadores de Apple. Sin embargo, como se que muchos no leerán el artículo, he aquí la versión ultra-resumida (y obviamente dejando fuera muchos datos interesantes) de uno de los puntos en ese artículo: A diferencia de la mayoría de otras empresas que licencian los chips ya diseñados por la empresa ARM Holdings, Apple lo que hace es que licencia lo que se llama el “ISA” de ARM, es decir, el lenguaje común que deben hablar todos los procesadores ARM, y después Apple toma ese lenguaje de bajo nivel y desde cero ha creado su propia implementación de esta arquitectura. O en otras palabras, lo único que Apple tiene de ARM es la definición de su lenguaje básico, pero el diseño que implementa ese lenguaje en silicio fue creado desde cero por Apple, utilizando algunos de los más legendarios diseñadores de microprocesadores de todos los tiempos. Aparte de eso, es importante destacar que debido a que es Apple quien diseña su propia versión de la arquitectura ARM, que esta puede tomar todo tipo de decisiones para lograr hacer de estos aun mejores microprocesadores, y eso es precisamente lo que ha hecho, integrando en estos unos circuitos adicionales propietarios, diseñados para acelerar los procesos más comunes en sus sistemas operativos, así como los procesos más comunes en las aplicaciones que estos corren. Como ejemplo, una laptop genérica de Windows con un procesador x86 (sea de Intel o AMD), aun corriendo a la misma velocidad que una laptop MacBook Air de Apple con el nuevo chip M1 es casi seguro que con aplicaciones de la vida real esta sea más lenta que la laptop de Apple. ¿Por qué? Pues utilicemos el ejemplo de alguien que vive de editar videos, y digamos que lo que estás haciendo es editando videos en el formato H.265. En el mundo Android/Windows es posible que ese trabajo se pueda hacer “a fuerza bruta” utilizando el gran poder computacional crudo de los chips de última generación en esas plataformas, y es incluso posible que se puedan aceleran algunos cálculos con “motores vectoriales” que existen usualmente en el GPU (el chip dedicado a manipular gráficos), pero en el entorno de Apple Silicon, Apple ha creado circuitos dedicados específicamente para codificar y descodificar video H.265, y en tiempo real. ¿Qué significa eso en la práctica? Que mientras tu PC con Windows está arduamente tratando de codificar y descodificar el “stream” de video H.265 mientras editas tu video, que esta está esencialmente utilizando su CPU y GPU casi al máximo con poco margen para que hagas otras cosas, haciendo que tu PC se sienta pesada y lenta. En el lado de Apple Silicon sin embargo la situación es diferente... Mientras editas tu video, circuitos dedicados están constantemente codificando y descodificando tu stream de H.265 en tiempo real, liberando esencialmente a tu CPU y GPU para que tengan ciclos de sobra para otras labores como manejo de audio, internet, labores de Office, etc, haciendo que tu sistema operativo se sienta ta fluido como la mantequilla. Incluso, ya se hizo público que incluso la nueva Mac Mini anunciada de US$699 dólares puede editar video en resolución 8K en tiempo real, algo inaudito en un equipo de tan bajo costo, de tan pequeño tamaño, y de tan bajo consumo energético (para los que no sepan de estos temas técnicos, noten que una señal 8K está compuesta de 16 señales de video “Full HD” 1080p como lo conocen los consumidores, así que hablamos de una máquinas de US$699 dólares capaz de editar el equivalente a 16 pantallas de video FullHD en tiempo real). Y notar que video es solo un ejemplo. Desde hace años en iOS y recientemente en el mundo de las Macs (con procesadores adicionales en los modelos clásicos con chips Intel, y ya integrado en el chip M1 hoy día), Apple tiene circuitos dedicados para en tiempo real cifrar todos los datos que fluyen en la memoria de la máquina así como la escritura y lectura de almacenamiento (sea a disco duro tradicional o SSD en estado sólido). Eso significa que en los entornos de Apple, la seguridad por medio de cifrado de datos está habilitada por defecto, ocurre en tiempo real, y tiene un impacto casi cero en el rendimiento del resto de la máquina, mientras que en la mayoría de los entornos Android/Windows, esas son funciones que tiene que hacer el CPU en adición a sus funciones cotidianas. Y esos fueron solo dos ejemplos. Apple dedica espacio para circuitos dedicados en sus chips a todo tipo de cosas que van desde sonido 3D hasta imágenes de alto rango dinámico (HDR), y desde reconocimiento facial y de huellas digitales hasta Inteligencia Artificial (por medio de Machines Learning). Así que los chips de Apple Silicon tienen las siguientes razones para ser no solo más eficientes que una máquinas tradicional x86 con Windows, sino para ser mucho más eficientes: 1. Para empezar, no inician con un diseño genérico de ARM, sino que un diseño creado desde cero por Apple mismo optimizado para las necesidades de su ecosistema y de sus usuarios. 2. Utilizan circuitos dedicados para acelerar tareas comunes de un usuario, liberando al resto del chip para otras labores más genéricas y haciendo que todo se sienta más fluido. 3. Aunque un tema un poco más técnico, Apple está liderando también en pruebas de “rendimiento por vatio”. Esto significa que sus chips consumen mucho menos energía haciendo el mismo trabajo que la competencia, lo que se traduce a que o (1) puedan trabajar sin calentarse tanto y sin perder velocidad o (2) tener un rendimiento aún superior bajo calentamiento y enfriamiento activo. Y a propósito, ese último punto es la razón por la cual la nueva MacBook Air M1, aun teniendo un chip con 8 núcleos de CPU y 8 núcleos de GPU, y decenas de otras microceldas de computación integradas, no solo no require abanicos para enfriar el chip, sino que de paso su batería dura fácilmente hasta 20 horas de uso, lo que liberará a muchas personas para que trabajen sin miedo el día entero sin tener que cargar un cargador encima todo el tiempo, que es otro de los beneficios no cuantificables sobre papel que esta arquitectura de Apple ofrece al usuario común. Sin embargo, no tienen que llevarse de todo lo que digo, ya surgieron los primeros benchmarks (medidas de rendimiento) de las primeras MacBook Air M1 que han llegado temprano a los laboratorios que hacen este tipo de mediciones, y los resultados hablan por sí mismos de lo contundente que son. Por ejemplo, el reconocido portal Tom’s Guide ha anunciado en su titular (traducido del inglés) “Revelan los benchmarks de la MacBook Air M1 y destruyen a las laptops con Windows”. Y si buscan en Google encontrarán otros resultados similares que han surgido en los últimos 2 días. Es importante aclarar que la MacBook Air M1 que acaba de salir a un precio de US$999 dólares no es que solo es más rápida que laptops de Windows en su rango de precio, sino que es más rápida que cualquier laptop con Windows que exista en el mercado, sin importar su precio. O En otras palabras, aun si compararas una laptop con Windows en US$3,000 dólares, esta seguiría siendo más lenta que el modelo más básico de Apple (la excepción a esto serían las laptops con GPU separados “discretos” de gama alta para video-juegos y de alto costo, pero noten que los benchmarks indican que el M1 supera hasta en un 30% a una tarjeta NVIDIA GeForce GTX 1050, lo que indica que al menos en el sector de chips integrados en laptops no hay comparación en el mundo de Windows por el momento). O en otras palabras, esto ha cambiado no solo las reglas del juego sino que el terreno de juego en sí. Ahora curiosamente la mesa ha dado vueltas y ahora se tendrán que considerar las laptops de Apple como no solo las más baratas para el rendimiento que ofrecen sino además las más potentes, dos condiciones que generalmente eran mutuamente exclusivas en el mercado, particularmente en el mercado profesional. Y ojo (como si ya no fuera suficiente dolor de cabeza para Intel y AMD), que este es apenas el primer chip M1 de Apple, que en apenas su primera encarnación básica ya es el chip más potente del mundo en el área que compite, y que todavía no hemos visto lo que Apple tiene planeado para la gama alta de su línea “Pro” en los próximos dos años, que pueden apostar será aun más potente, y en el caso de la Mac Pro será muchísimo más potente, posiblemente con decenas de núcleos o quizás configuraciones multi-chip en paralelo. ¿Qué significa todo esto? Que estamos literalmente al inicio de una nueva revolución en el mercado, una revolución que empujará ahora a Intel, AMD y Microsoft a ponerse las pilas y responder. Aquí alguien más que tiene de ganar aparte de Apple es ARM Holdings, quien ya está entrando en el diseño de chips ARM para uso en escritorio y laptops, y hay que ver si Microsoft se lanzará a seguir los pasos de Apple en el 2021 y por fin lanzar una versión de Windows optimizada para ARM. Y ojo, antes de que comenten al respecto: Sí, Microsoft creó una versión de Windows para ARM que sacó con sus tabletas con el llamado “Windows RT”, pero fue un total fracaso. Si Microsoft realmente quiere competir contra macOS con Windows, tendrá que hacerlo saltado de pie a cabeza en el mundo ARM, y de paso por fin dejar atrás a x86 y seguir soportando las aplicaciones tradicionales por medio de herramientas como Rosetta 2 en las nuevas Macs con el chip M1. Y hablando de Rosetta 2, hablemos de qué sucederá con la aplicaciones que ya poseen en sus Macs tradicionales... Para esto Apple ofrece Rosetta 2, que es una herramienta que en tiempo real toma un binario creado para x86 (la arquitectura de Intel y AMD) y lo “transcompila” a Apple Silicon, esencialmente generando un nuevo binario nativo para Apple Silicon. Según Apple (y aparenta ser cierto en la práctica), debido a la alta optimización de la transcompilación y debido al gran poder y eficiencia del M1, curiosamente muchas aplicaciones de Intel correrán mejor en las nuevas Macs con M1. Sin embargo esta transcompilación aunque funcionará para la vasta mayoría de aplicaciones, habrá un pequeño porcentaje de aplicaciones (menos del 1%) que no funcionarán, pero son aplicaciones muy específicas que tienen que ver con virtualización. Así que por ejemplo, aplicaciones como VMWare y Parallels Desktop que te permiten emular a Windows o Linux en Mac, inicialmente no funcionarán en sus versiones tradicionales, pero si lo harán desde que sus desarrolladores creen nuevas versiones específicas para Apple Silicon, y eso nos lleva a otra herramienta que ha traído Apple a la mesa para suavizar la transición entre las Macs tradicionales y las nuevas: Binarios Universales. Un Binario Universal en el mundo de Apple tiene dos sentidos, y ambos han sido utilizados tradicionalmente por Apple a través de los años. En el primer sentido, un Binario Universal puede ser un App para la misma arquitectura pero que funciona en dos plataformas diferentes. El mejor ejemplo de esto son las Apps Universales para iPhone y iPad. Esencialmente el mismo App funciona en ambos entornos, aun estos sean diferentes (pero compartiendo la misma arquitectura de los chips Series A de Apple que comparten los iPhones y iPads). En el segundo sentido, por Binario Universal Apple se refiere a un solo archivo que contiene los binarios para dos arquitecturas totalmente diferentes, como la del x86 y la de Apple Silicon. Y esta es la ruta que durante unos años Apple seguirá. Bajo este modelo, cuando los desarrolladores creen sus Apps utilizando las herramientas de Apple, tras bastidores Apple compilará dos versiones de la aplicación, una optimizada para x86, y otra para su propio Apple Silicon, y las empaquetará ambas en un solo archivo instalador. ¿Qué significa eso? Que al menos por los próximos años cualquier usuario de Mac, sin importar que la Mac sea de la tradicional x86 o Apple Silicon podrán compartir archivos normalmente entre sí y los programas funcionarán transparentemente. Esto significa también que las Macs que hayas comprado recientemente no dejarán de funcionar, y que casi todos los programas que se hagan para las nuevas Macs funcionarán en tu Mac (salvo obviamente aquellos casos que tomen ventaja de cosas nuevas que no existan en las Macs anteriores, como podría ser un sensor de FaceID que espero llegue algún día a las Macs). Según Apple, la empresa planea seguir dando soporte a las Macs tradicionales “por varios años más”. Si nos llevamos de su historial con transiciones pasadas, lo más probable es que el tema de los binarios universales sea la norma por dentro al menos 3 o 4 años más, y quizás por un máximo de 5 o 6. Y noten un par de temas más. El primero es que Apple ya podrá crear aplicaciones mega-universales, que no solo funcionarán en las Macs con x86 y las de Apple Silicon, sino además en iPhone y iPad, cosa que ha anunciado oficialmente. Y esto se hará cada vez más fácil debido a que cada año macOS y iOS y iPadOS comparten cada vez más sus cimientos. Incluso, por si no sabían, una de las nuevas cosas que puedan hacer las nuevas Macs con M1 es ejecutar aplicaciones de iPhone y iPad (aunque son los desarrolladores de cada App los que decidirán si permitirán ejecutar sus Apps de iPhone y iPad en macOS, pues quizás quieran optimizar su interfaz para cada entorno), lo que traerá cientos de miles de Apps de iPhone (y particularmente iPad) a macOS. Yo por ejemplo sueño con una futura iMac cuya pantalla se recline y se convierta en una tableta gigante para utilizar aplicaciones optimizadas para touch, o por ejemplo utilizar a ProCreate para dibujar/pintar con el Apple Pencil (dicen que soñar no cuesta nada). Y el otro tema es que es bueno que sepan que esta no es la primera vez que Apple hace semejante transición, incluso, esta es la tercera vez que lo hace. La primera vez fue cuando transicionó sus Macs de los chips Motorola 68xxx a los PowerPC, la segunda vez fue cuando transicionó a sus Macs con OS X desde PowerPC a x86, y esta vez es la tercera, así que la empresa ya tiene experiencia con estas transiciones, y por sobre todo que no tiene el temor de hacerlas, cosa que siempre he deseado de Microsoft, quien testarudamente al día de hoy quiere seguir soportando aplicaciones de hace décadas atrás, y esa resistencia al cambio es precisamente lo que le costará mercado ahora, pues pueden esperar que al menos en los próximos dos años Apple tomará una ventaja significativa sobre el mercado de Windows, al menos en el sector profesional. Para que tengan una idea a lo que me refiero, herramientas como Pixelmator ya están reportando esta semana que la versión M1 es entre 3 y 15 veces más rápida que la versión x86, y esa ventaja puede dejar atrás aquellas otras aplicaciones profesionales que solo existen en Windows si no se apuran rápidamente a migrar sus apps a macOS. Adobe por ejemplo ha respondido que migrará toda su plataforma creativa a Apple Silicon precisamente para no quedarse atrás, y esperen lo mismo de aplicaciones de otra índole en ramas de la ingeniería, medicina, arquitectura, etc. Habiendo dicho todo eso, y para concluir, quiero decir que es verdad que ahora vendrán las guerras de los Fanboys y los Haters, pero al final de cuentas somos los consumidores los que seremos beneficiados de estos saltos tecnológicos, y debo decir que el mundo de las PCs de escritorio y laptops (de Windows y Macs) necesitaban algo como esto, pues ese mundo se había casi paralizado debido a los grandes avances en el sector móvil. Así que amen u odien a Apple, hay que darle su debido crédito de querer siempre innovar y empujar (o a veces halar) al resto de la industria hacia adelante... Los próximos dos años serán verdaderamente emocionantes. autor: josé elías |
20 comentarios
1,375,718 vistas |
Apple / OS X , Futuro Digital , Hardware , Linux , Negocios , Opinión / Análisis , Predicciones , Software , Windows / Microsoft |
lunes, agosto 24, 2020
|
Hola amig@s lectores,
En estos días una noticia ha explotado en el mundo de la tecnología llamando bastante la atención tanto de desarrolladores de software como empresarios y políticos: La empresa Epic Games anunció que está demandando a Apple y a Google por lo que consideran es un tratado injusto en sus respectivas cuentas de aplicaciones, y citan específicamente su popular juego Fortnite que es en actualidad uno de los juegos más populares del mundo. Pero antes de continuar, entendamos el contexto... En el 2008 Apple anunció el App Store ("La Tienda de Apps"), una tienda que por primera vez y de forma super segura y super fácil permitía a consumidores instalar aplicaciones adicionales a las que venía instaladas por defecto en sus iPhones, algo que muy poco tiempo después fue replicado por Google en su tienda para Android y el Play Store. Sin embargo, es bueno aclarar que estas tiendas no fueron creadas por puro altruismo, sino que son parte de un modelo de negocio de estas empresas para generar más dinero post-compra del equipo celular. En el caso de Apple en particular, esto le ha funcionado increíblemente bien, y particularmente en el ambiente de video-juegos, ya que el poder adquisitivo de los usuarios de iPhones en promedio es mayor que el de usuarios de Android, y a eso se agrega que para desarrolladores es mucho más fácil hacer juegos para iOS que para Android debido a que en el entorno iOS hay mucha más homogeneidad, mientras que en el entorno Android hay demasiada variedad de dispositivos con demasiadas variaciones en poder de procesamiento, pixeles por pantalla, potencia de los gráficos, etc. Y ojo que esto no es una opinión subjetiva mía, pues lo que acabo de decir es el consenso general de la industria avalado por cifras. Como ejemplo relevante a esta conversación de hoy, noten que la misma Epic Games anunció que en el mes pasado de Julio sus ventas en iOS fueron de US$43.4 Millones de dólares, mientras que en Android fueron de apenas US$3.4 millones de dólares (o en otras palabras con Apple la empresa Epic Games vende unas 13 veces más que en Android. Y a propósito, la razón de citar estas cifras es porque es importante que entiendan que Apple representa para Epic Games su mayor fuente de ingresos en al menos el espacio móvil, por lo que cualquier ahorro que la empresa pueda tener en el ecosistema de Apple representaría una gran diferencia monetaria para Epic. Habiendo dicho eso notarán entonces por qué es que Epic ha creado toda una campaña de Relaciones Públicas en contra de Apple específicamente, aun esté también demandando a Google (y hago paréntesis porque he notado las redes de usuarios de Android felices que Epic está demandando a Apple, desconociendo obviamente que la demanda aplica igual a Google, pero así es el mundo de los fanboys). Epic ha llegado a un extremo tal que incluso creó su propia versión del famoso anuncio de Apple "1984", pero esta vez poniendo a Apple como el opresor, y de paso ha organizado eventos masivos anti-Apple dentro de Fortnite. Sin embargo, aunque Epic tiene un punto (en algo que mencionaré al final en donde estoy de acuerdo con ellos), en gran parte toda esta jugada de Epic ha sido algo totalmente premeditado y extremadamente hipócrita, y les mostraré cómo a continuación... Primero, se hizo obvio que todo esto fue premeditado por Epic ya que en la misma semana no solo violó los términos de uso del App Store (lanzando una funcionalidad que le permite cobrar dinero dentro del App pero sin pasar por la tienda de Apple, algo que está terminando prohibido y que hicieron clandestinamente) y segundo lanzaron el video de "1984" que ya tenían listo desde hace tiempo (un video de esa naturaleza no se planifica y hace en 48 horas, es algo que tomas literalmente semanas en el mejor de los casos), lo que indica que Epic tenía toda esta estrategia planificada desde hace tiempo, lo que incluye de paso enviar información falsa a sus usuarios para ponerlos a su favor y en contra de Apple. ¿Cuál información falsa? Pues para eso pasemos ahora cómo es que son unos hipócritas... Para empezar, Epic le ha hecho creer a sus usuarios y fans que Apple es el demonio que quiere acabar con sus opciones de juegos, cobrándoles un 30% de comisión por lo que sea que paguen. Pero lo que Epic no les dice es que la empresa paga también ese mismo exacto 30% en las tiendas de Microsoft, Sony y Nintendo. La otra cosa que Epic tampoco les dice es que a diferencia de Microsoft, Sony y Nintendo, que Apple en el segundo año de subscripción cobra solo el 15%, la mitad de esos competidores. Pero la parte verdaderamente hipócrita es que Epic están demandando (en una carta que enviaron a Apple el 30 de Junio y que recién se hizo pública) que Apple le permita (1) poder cobrar dentro del ecosistema de Apple como les de la gana sin darle un centavo a Apple y (2) poder tener su propia tienda de Apps en el iPhone, iPad, Apple TV, Apple Watch y Macs, sin pagarle un solo centavo a Apple, y lo hipócrita de esto es que Epic tiene su propio ecosistema de herramientas que cobra a quienes la utilizan, así como cobra a los mismos jugadores por usar sus juegos y comprar cosas dentro de esos juegos. En otras palabras, Epic está demandando acceso 100% gratuito dentro de Apple, pero ellos mismos sí quieren poder cobrarle a otros. Y no, nada de esta información "no conveniente" la ha dicho Epic a ninguno de las manadas de fans, fanboys y haters que ha reclutado en su guerra santa contra Apple. Y creo que hay que pausar un segundo para entender bien esta parte. La analogía de lo que Epic quiere hacer es que si tu eres propietario de un Shopping Mall (mega-centro de tiendas, o plaza, como le dicen en algunos países latinos), Epic quiere que no solo le cedas un espacio dentro de ese Mall sin pagarte renta alguna, sino que además quieren poner en ese espacio dentro de tu Mall una tienda desde la cual ellos puedan administrar y vender más locales dentro de tu Mall, y todo eso sin darte un solo centavo. Esto ni siquiera es comunismo, esto es depredación sin ningún tipo de vergüenza de los recursos de otros. Y si se preguntan, ¿y no es eso libre mercado? Pues no. Libre mercado es que Apple no obliga a Epic a entrar a su ecosistema. Epic entró no solo porque fue su voluntad, sino que entró después de estar 100% de acuerdo con las normas y reglas de Apple, y al Epic violar el acuerdo Apple hizo lo que haría cualquiera de nosotros en su lugar: Le dio una advertencia que eso tenía que parar o que se arriesgaban a ser sacados del App Store. También es bueno destacar que Apple no cobra ese dinero sin ninguna justificación (como lo quiere hacer ver Epic). Apple ha invertido literalmente miles de millones de dólares en desarrollar su ecosistema, y para mantenerlo necesita también de grandes recursos (solo piensen en los centenares de miles de servidores que la empresa tiene que mantener mensualmente para manejar la carga de los más de mil millones de usuarios del App Store, y sus demandas en descargas y procesamiento de pagos en tiempo real), por lo que aun Apple quisiera (y no lo va a estar porque es una empresa con inversionistas que demandan ganancias, como debe ser) esta no podría proveer el App Store de forma gratuita a nadie. Agreguen a eso todos los sistemas de protección contra Apps malignas que Apple tiene, que garantizan en la medida de los posible que sus usuarios estén lo más protegidos posible (obviamente no son perfectos en esto, pero las cifras hablan por sí mismas: Más del 99% de los problemas de seguridad de Apps afectan a Android y no a iOS, revisen por ejemplo los datos de Checkpoint para este punto). Así que en resumen, lo que Epic demanda es totalmente injusto, y lo hizo de una forma realmente innecesaria, premeditada, y con obvias malas intenciones, de paso utilizando una táctica de baja moral al reclutar a sus seguidores haciéndoles creer que Apple es el malo del juego y quien quiere cobrarles, cuando Epic mismo les cobra a ellos. Así que esta no es una pelea legal entre David vs Goliat, esto es más una pelea de intereses en donde Epic sabe que su mayor fuente de ingresos proviene de Apple y quiere buscar la forma de cortar los ingresos a la mano que le da de comer. Ahora bien, aun habiendo dicho todo eso de Epic, sí hay algo en lo que estoy parcialmente de acuerdo con ellos, y es en ese 30% inicial. En mi opinión, aunque Apple está en todo su derecho de demandar el porcentaje que le plazca, ya que es su plataforma, yo creo que algo más factible para ambas partes debería rondar entre el 10% y 20% como mucho, quizás fijado en un 15%, sin embargo esto es algo que Epic muy bien pudo solicitarle a Apple (o incluso organizar pacíficamente un grupo de los grandes usuarios del App Store) sin necesidad de violar sus reglas y sin necesidad de iniciar una campaña sucia contra la empresa. Hoy lunes 24 de agosto 2020 será la primera audiencia legal sobre este caso en las cortes de EEUU, y ya veremos lo que sucede de ahora en adelante (mantendré este artículo actualizado acá abajo conforme pasen grandes hitos con este caso), pero mientras tanto, una predicción de mi parte: Epic va a perder esta batalla en el sentido de que no va a lograr que Apple ceda en darle tratamiento especial, y mucho menos permitirle que ponga su propia tienda dentro de la tienda de Apple, pues permitir esto sentaría un gran y peligroso precedente en los EEUU que afectaría todo su sistema capitalista y provocaría un éxodo de empresas buscando otras fronteras más amigables a la inversión y que proteja mejor la propiedad intelectual y trabajo de visionarios. Por otro lado, esto sí posiblemente al largo plazo haga que Apple, Google, Microsoft, Sony y Nintendo ponderen si 30% es quizás un poco más de lo justo o apropiado o aceptable para sus clientes, y de ellos aceptar una baja (aun sea a un 20%) en cierta forma esa sería una victoria para Epic. Sin embargo, no pierdan de vista el hecho de que si Apple le cierra las puertas a Epic (y tiene todo el derecho legal de hacerlo) que esto afectaría enormemente las finanzas de Epic al largo plazo, pues recuerden que facturan por medio del App Store más de US40 Millones de dólares mensuales. Pero como si fuera poco, Epic es la creadora del motor de juegos Unreal Engine, utilizado por decenas de miles de juegos y apps en el App Store, y si Apple le revoca la licencia del App Store a Epic, es posible que juegos que utilicen el Unreal Engine tampoco podrán ser aceptados en el App Store, dando un tremendo golpe a las finanzas de Epic, por lo que no creo la empresa esté realmente pensando en llevar esto para largo y creo que está haciendo un bluf como en poker, pues no solo afectaría esto sus finanzas gravemente, sino que le daría una gran ventaja a su competencia principal, Unity, que hacen el otro gran motor de juegos multi-plataforma popular de la industria. Respuesta a una pregunta frecuente que quizás algunos de ustedes tengan: Si se preguntan qué va a pasar con los que ya tengan el juego instalado en sus iPhones u otros dispositivos de Apple, la respuesta es que por ahora si tienen la versión anterior a la más reciente (la que viola las normas de Apple) el juego continuará funcionando normalmente, sin embargo es posible que en los próximos días Apple remueva la última versión que viola las normas, invaliden el juego a los que la tienen instalada, y ustedes tengan que volver a recargar la versión anterior (que Apple no removerá del App Store ya que no viola las normas). O en otras palabras, por el momento podrán seguir teniendo acceso a al menos la versión más reciente del juego que no viola las normas del App Store, sin embargo ya no podrán tener actualizaciones del juego, lo que significa que al largo plazo el juego podría dejar de funcionar conforme salen nuevas versiones de iOS. Todo esto claro, si no se llega a un acuerdo antes, y ese acuerdo sería que Apple no cambiaría absolutamente nada y Epic Games de un paso atrás y acepte las normas del App Store. Actualización 1: Un lector hizo la observación sobre este artículo en el grupo oficial de eliax en Facebook de que Microsoft oficialmente se ha unido a la batalla apoyando a Epic, y es bueno que entiendan por qué: Microsoft, similar a Epic, quiere que Apple le de acceso a instalar un App en el iPhone, iPad y Apple TV que daría acceso remoto a los juegos de Microsoft en la nube, sin pagarle un centavo a Apple, a lo que Apple también se ha negado. Actualización 2: Similar a Microsoft, Facebook también simpatiza con Epic, y por la misma razón que Microsoft: Facebook quiere que Apple le permita poner su tienda de mini-apps y juegos dentro del App Store, sin pagarle un centavo a Apple, cosa que como podrán entender es inaceptable para Apple. Actualización 3: En primera audiencia la jueza a cargo del caso dijo que "está más a favor de Apple" en este caso aunque no completamente (eso quizás signifique que permitiría que Apple continue bloqueando el juego Fortnite si Epic no se acopla a las reglas del App Store pero que quizás impida que Apple bloquee otros juegos que utilizan el Unreal Engine de Epic), y que dictará una sentencia "a futuro". Actualización 4: La cuenta de Epic Games en el App Store ha sido oficialmente cerrada por Apple ya que Epic decidió no apegarse a las reglas aún después de Apple cederle dos semanas de gracia. A tal fin, nuevos jugadores de Fortnite no podrán descargar el juego en iOS, y todos los otros juegos de Epic también fueron removidos del App Store. Actualización 5 del 9 de Sept. 2020: Epic ahora quiere que Apple le permita regresar al App Store, pero no quiere ceder en tener que pagar como todos los demás clientes en la tienda de Apple. Debido a esto y la insistencia de Epic, Apple ha decidido contra-demandar a Epic, y parte del documento legal que se envió a las cortes incluye estos dos párrafos escrito por abogados de Apple (que pongo en inglés y después traduzco para los que no sepan el idioma): ″Epic’s lawsuit is nothing more than a basic disagreement over money. [...] Although Epic portrays itself as a modern corporate Robin Hood, in reality it is a multi-billion dollar enterprise that simply wants to pay nothing for the tremendous value it derives from the App Store.” Traducción: "La demanda de Epic no es más que un desacuerdo por dinero. Aunque Epic se quiere presentar como un Robin Hood corporativo moderno, lo cierto es que en realidad es una empresa que genera miles de millones de dólares que sencillamente no quiere pagar un centavo por el tremendo valor que deriva del App Store." Y continúan: Apple is now going one step further, asking the court to hold Epic liable for breach of contract and other counts, seeking restitution of all money Fortnite collected through its payment system, and seeking a permanent injunction banning its external payment mechanism in all apps, including Fortnite. Traducción: "Apple ahora tomará un paso más, solicitando al tribunal que responsabilice a Epic por incumplimiento de contrato y otros cargos, y que buscamos restitución de todo el dinero que la empresa colectó por su sistema de pagos [circundando el sistema de pago de Apple que contractualmente estaba obligada a utilizar], y buscando una orden judicial permanente que prohíba su mecanismo de pago externo en todas sus aplicaciones, incluyendo a Fortnite." Noten que Epic ya ha sentido el duro golpe de no existir en el App Store, reduciéndose sus ventas significativamente en el período que ha estado fuera del App Store, lo que de por sí es evidencia de que la empresa obtiene un valor por utilizar la plataforma de Apple, y razón por la cual Apple requiere ser remunerada por proveer ese valor. autor: josé elías |
37 comentarios
1,448,575 vistas |
Apple / OS X , Google , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Video-juegos , Windows / Microsoft |
miércoles, julio 22, 2020
|
Hola amig@s lectores,
Como ya sabrán, Apple recientemente anunció que sus Macs transicionarán a sus propios procesadores que ha bautizado como "Apple Silicon", y aunque no han proveído información detallada al respecto noten que llevo desde el 2007 prediciendo esta integración (ver los enlaces de "previamente en eliax" al final de este artículo en donde verán los principales artículos históricos que he escrito acá en eliax sobre el tema), y por tanto tengo una muy buena idea de todo lo que ocurre tras bastidores (ayudado también por contactos en ciertas empresas, rumores de fuentes confiables, y dado que mi profesión de carrera universitaria fue precisamente el diseño de microprocesadores, tema que entiendo en profundidad). Habiendo hecho esa breve introducción déjenme aclararles algo de entrada: Apple no está fabricando los típicos chips de arquitectura ARM para sus Macs (ni tampoco para sus otros productos que utilizan Apple Silicon como son el iPhone, iPad, Apple Watch, AirPods, Apple HomePod, o Apple TV), y para entender eso deben entender cómo funciona el ecosistema ARM, que es muy diferente al ecosistema tradicional de Intel (y AMD) con la arquitectura x86 y sus derivados recientes como X86-64. En el mundo de x86, empresas como Intel y AMD diseñan sus chips, los fabrican (sea en sus propias fábricas, como Intel, o de otros, como AMD) y después los venden a clientes (como Dell, HP, Lenovo, etc) que después integran esos chips adentro de sus productos. Bajo este modelo el cliente de x86 por lo general no tiene muchas opciones a la hora de decidir qué va dentro de esos chips (que por lo general son CPUs, o el cerebro principal del sistema) y a veces GPUs (encargado de gráficos, y más recientemente también de temas como Inteligencia Artificial de forma parcial). Sin embargo empresas como Intel lo que hacen es que tienen una gran diversidad de familias (como la i3, i5, i7, i9, Xeon, etc) y modelos (como por ejemplo el Core i9-10980HK), con la esperanza de que algunos de esos modelos le serán de utilidad al mercado dependiendo de las necesidades (como por ejemplo, laptops, o potentes servidores, o PCs para jugar, etc). En el mundo ARM la situación es totalmente distinta. La empresa que mantiene la arquitectura ARM es ARM Holdings, cuyo propietario es actualmente el SoftBank Group de Japón (curiosamente, noten que Apple fue de las 3 empresas que iniciaron a ARM, junto con Acorn Computer y VLSI Technology). En este mundo, la empresa ARM no fabrica sus propios chips, sino que licencia sus diseños en dos modalidades muy particulares. Bajo la primera modalidad, ARM diseña chips y licencia sus planos a empresas que deciden utilizar esos diseños para sus productos. Así que por ejemplo alguien como Samsung puede licenciar los planos de un modelo específico de chips de ARM, y después procede a enviar esos planos a una fábrica para que les fabrique millones de chips con esos planos y después poner el producto en sus celulares. ARM también provee servicios donde bajo ciertos arreglos puede ligeramente modificar algunos aspectos de sus diseños para clientes en particular (Huawei por ejemplo puede solicitar a ARM que le provea planos de un chip que contenga 4 núcleos de CPU de alta potencia y 4 más de bajo consumo energético). Pero lo importante a entender es que bajo este modelo los creadores de productos (como Samsung o Huawei) simplemente licencian los planos de tales chips, y después es labor de ellos buscar un fabricante que se los fabrique. El otro tipo de licencia, que muy pocos tienen, siendo Apple una de esas exclusivas empresas, no es para licenciar los planos genéricos de los chips que implementan la arquitectura ARM, sino para licenciar lo que se llama el "ISA" (Instruction Set Arquitecture). Les explico a continuación ya que esto es extremadamente importante lo entiendan... Cuando alguien habla de "X86" o "ARM" se refiere por lo general al paquete completo, al producto final, al chip ya empacado y listo para utilizarse en un celular o tableta. Sin embargo, en la jerga de la industria esas palabras tienen significados muy diferentes dependiendo de a qué nos estamos refiriendo. Una cosa es un chip que implementa una arquitectura, otra es la arquitectura en sí. En el mundo de los microprocesadores uno generalmente inicia con el ISA, que no es más que el lenguaje que hablaría el microprocesador a bajo nivel. Así que por ejemplo, imaginemos una arquitectura de microprocesador que implementará este ultra-sencillo juego de instrucciones (ISA): - ESCRIBIR (algo en memoria) - MODIFICAR (algo en memoria) - COPIAR (de un lugar en memoria a otro lugar) - BORRAR (algo en memoria) - SUMAR (dos números) - CONDICION (para hacer algo dependiendo de algo) Esa lista de 6 "comandos" sería el ISA, o "La Arquitectura del Juego de Instrucciones". En la realidad, obviamente la cosa es muchisisísimo más compleja, pero para fines didácticos este ejemplo es más que suficiente. Ahora bien, asumamos que ese es el ISA de la arquitectura ARM. ¿Qué sucede ahora? Pues obviamente el ISA no es más que una especificación técnica sobre papel, no hace absolutamente nada hasta que alguien haga un diseño (un "plano") que implemente esa ISA en un plano que después se pueda enviar a una fábrica para crear el chip. Y eso es precisamente una de las cosas que hace ARM: La empresa toma su especificación de ISA y diseña planos de chips que implementan ese ISA para distintos mercados. Es bueno notar que ARM hace distintas familias de diseños de sus chips para diferentes mercados, tal cual lo hace Intel, así que por ejemplo ARM tiene familias como son los Cortex-A, Cortex-M, Ethos-N, Neoverse, etc. Es también bueno entender que aunque los chips son diferentes y para distintos mercados (como puede ser desde un super pequeño chip de bajo consumo energético para ser utilizado en un la computadora de un refrigerador, hasta un super potente chip con 8 núcleos para el más reciente celular de Google) que todos esos chips utilizan exactamente el mismo ISA, lo que significa que un programa que pongas en uno de ellos funcionará hasta cierto punto en otro (aunque obviamente de forma más rápida o lenta dependiendo del caso). Y esa es una de las grandes ventajas de ARM: Un desarrollador de software puede utilizar esencialmente las mismas herramientas para desarrollar para una aplicación que va en un refrigerador, hasta una aplicación que va para una nave espacial, ya que la arquitectura de bajo nivel es la misma. Pero la otra cosa que hace ARM (como es el caso de Apple) es licenciar la ISA en sí, para que sea entonces el cliente de ARM (en este caso Apple) quien diseñe sus propios planos basados en la arquitectura ISA de ARM. Y es por eso que aunque Apple licencia el ISA de ARM, que técnicamente hablando al bajo nivel los chips de Apple son totalmente diferentes a los chips ARM genéricos que utilizan empresas como Samsung, Huawei y Google en sus productos. Y eso es extremadamente importante entenderlo porque muchos se preguntan que cuál es la fórmula mágica que permite que año tras años los chips "ARM" de Apple en sus celulares y tabletas sean considerablemente superiores en rendimiento y consumo energético a los de la competencia, y la razón es que Apple ha invertido miles de millones de dólares en contratar (literalmente) a los mejores diseñadores de microprocesadores del mundo, con la finalidad de tener su propia implementación del ISA de ARM al que llama "Apple Silicon". Pero antes de explicarles qué otras cosas está haciendo Apple para hacer que su Apple Silicon sea mucho más eficiente que los chips genéricos de ARM, es bueno responder también la pregunta "¿Por qué ARM en primer lugar y no x86?" Es decir, qué hizo que empresas como Apple, Samsung y miles de otras decidieran adoptar a ARM para sus productos... Y la respuesta es sorpresivamente sencilla: Eficiencia, costos y simpleza. Sucede que filosóficamente han existido tradicionalmente dos escuelas de pensamiento sobre cómo diseñar microprocesadores. La primera escuela es llamada CISC, y la segunda RISC. Intel es de la vieja escuela de CISC que significa "Complex Instruction Set Computing", y ARM es de la nueva generación de RISC (Reduced Instruction Set Computing). En CISC la idea es diseñar microprocesadores que con una sola instrucción puedan hacer varias operaciones a la vez, mientras que RISC prefiere la filosofía de preferir hacer varias operaciones simples una detrás (o en paralelo, de ser posible) de las otras. Aunque ojo que hoy día ambas arquitecturas han tomado prestado de la otra, pero para fines de este artículo lo que les dije es lo primordial. Como analogía didáctica, imaginen un ejemplo en donde un usuario quiere sumar 4 números que llamaremos A, B, C y D. En el mundo CISC de Intel es posible que exista una instrucción que sume los 4 números de una sola vez, con una instrucción similar a esta: SUMAR 4 NÚMEROS: A + B + C + D = X Pero en el mundo RISC quizás solo tengamos una simple instrucción que sume dos números a la vez, por lo que tendríamos que ejecutar varias instrucciones simples secuenciasmente para llegar al total, similar a esto: SUMAR 2 NÚMEROS: A + B = X SUMAR 2 NÚMEROS: X + C = X SUMAR 2 NÚMEROS: X + D = X Ahora bien, a simple vista se puede perdonar que alguien ingenuamente opine que la primera forma de sumar los números es "la más eficiente", puesto que se hace todo en un solo paso. Sin embargo, y como dice el viejo dicho, el demonio está en los detalles... Sucede que en el primer ejemplo, así como Intel tendría una instrucción especial para sumar 4 números, lo más probable es que también tenga que tener dos instrucciones más adicionales en el chip, una para sumar grupos de 3 números, y otra para sumar grupos de 2 números, como esto: SUMAR 4 NÚMEROS: A + B + C + D = X SUMAR 3 NÚMEROS: A + B + C = X SUMAR 2 NÚMEROS: A + B = X O en otras palabras, mientras que la arquitectura RISC tiene un solo comando que se llama "SUMAR 2 NÚMEROS" y que reutiliza una y otra vez para sumar la cantidad de números que uno desea, la arquitectura CISC tiene comandos específicos para sumar entre 2, 3 o 4 números (y obviamente puede combinarlos igual que RISC para múltiples operaciones). ¿Qué significa eso? Pues significa lo siguiente: 1. Implementar la instrucción de sumar dos números en ambas arquitectura posiblemente tome una cantidad de circuitos (y correspondiente espacio) en el chip muy similar. Pero para implementar la suma de 3 o 4 números la arquitectura CISC va a necesitar de más circuitos y más espacio en el chip (en nuestro ejemplo, entre 3 y 5 veces más espacio debido a que también se necesita espacio para guardar todos los números que se suman a la vez). 2. Debido a que un chip CISC necesita muchísimo más espacio que un chip RISC para poder hacer computación, eso significa también que (1) son más complejos y (2) más grandes ya que ocupan mucho más espacio. 3. Debido a que los chips CISC son más grandes, eso también significa que son mucho más caros para fabricar, ya que los chips se fabrican en wafers (similares a un disco compacto pero sin el agujero del centro), y mientras menos chips quepan en un wafer mayor su costo de fabricación y de paso mayor la posibilidad de que tengan impurezas lo que daña los chips y por tanto sube aun más los costos de fabricación. 4. Pero como si fuera poco, el hecho de que los chips son más grandes, y que de paso las instrucciones del ISA de un chip CISC manipulan más datos a la vez, eso también significa que (1) consumen significativamente más energía y (2) por tanto se calientan mucho más, lo que para ciertas aplicaciones es un grave problema ya que se necesitaría de enfriamiento activo (como son los ventiladores conectados directamente en los chips como es común en las PCs de Intel con Windows). Habiendo dicho todo eso, espero que vayan entendiendo por qué entonces al inicio de la revolución móvil que inició en los días del primer iPhone (y los anteriores líderes como fueron el Palm Pilot o Blackberry) los fabricantes de tales dispositivos decidieron irse mejor con ARM (y su arquitectura RISC) ya que los microprocesadores ARM son (1) más baratos, (2) consumen menos energía, y (3) ocupan menos espacio. Y como pueden ver estos son tres requerimientos esenciales para aplicaciones móviles hoy día. Intel, lamentablemente, no predijo todo esta revolución móvil que se venía llegar tarde o temprano, no se adaptó a tiempo a las nuevas tendencias, decidió seguir pensando en PCs de escritorio y laptops tradicionales con Windows, y cometió de paso su error más monumentalmente nefasto al no solo no decidir crear una arquitectura que compitiera realmente contra ARM, sino que de paso fue tan torpe como para vender una licencia de ISA ARM que poseía (de las muy pocas que existían en el mundo, y que de no haberla vendido, hubiese podido estar fabricando sus propios chips ARM hoy en día). Noten que debido a todo eso, hace 10 años escribí un artículo titulado "Análisis eliax: La arquitectura ARM se convierte en la más grande amenaza al negocio de Intel", pero parece que los ejecutivos de Intel no leían a eliax en ese entonces... Pero las ventajas de ARM no se quedan ahí. A diferencia de los chips x86 cuyos únicos diseñadores son Intel y AMD, en el mundo ARM un cliente de ARM puede solicitar que en el mismo chip se integre también todo tipo de otros diseños y módulos, como por ejemplo integrar un GPU o un procesador de señales dentro del mismo chip, para así hacer todo más eficiente aun y de mucho menor costo. Y es ahí en donde viene el concepto (que encontrarán en donde sea que lean estos temas) de un "SoC". Un SoC (System on-a Chip) no es más que la técnica de poner varios microprocesadores que usualmente estarían empacados en chips diferentes, dentro de un solo chip. En el mundo x86 esto también existe pero de forma muy limitada, como por ejemplo los chips de Intel que vienen con un GPU integrado, pero en el mundo ARM eso se lleva a todo un nuevo nivel ya que ARM le da permiso a cualquier fabricante de integrar cualquier otro circuito personalizado que desee dentro de sus diseños. Y es bueno notar también que cuando empacas varios diseños de microprocesadores en un solo chip que las distancias de comunicación interna se reducen considerablemente mejorando de forma sustancial el rendimiento de interacción entre las partes. Y todo esto nos lleva de regreso a Apple... A diferencia de (por ejemplo) los fabricantes de equipos Android que están a la merced de ARM para diseñar sus propios módulos opcionales para incluir en un SoC, o de tener que contratar a terceros que les provean esos módulos en forma de "IP" (cuando lean "IP" en este contexto no están hablando de "dirección IP de Internet", sino de "Intellectual Property, es decir, planos de circuitos que son propiedad intelectual de sus diseñadores y que te venden o licencian), o en algunos casos de tener que contratar de forma interna o externa a expertos que les diseñen esos componentes adicionales, mientras que Apple por su parte lo que ha hecho es que dentro de su propia empresa ha creado toda una división de diseño de microprocesadores cuyo único cliente es Apple mismo. Y esto, tiene implicaciones profundas... Para empezar, Apple fabrica cientos de millones de productos cada año, y todos utilizan y utilizarán su propio Apple Silicon, lo que le permite lograr una extremadamente eficiente economía de escala, ya que tiene el uso y consumo de tales chips garantizados. Debido a que Apple es el único "cliente" de Apple Silicon, eso significa que los diseñadores de esos chips están diseñando circuitos exclusivamente para las necesidades de Apple y de nadie más. Eso a diferencia de los diseños genéricos de ARM, que por pura necesidad deben ser lo más genéricos posibles ya que deben satisfacer las diversas necesidades que pudieran tener los distintos clientes que licencien esos diseños (es el caso similar con el sistema operativo Android, debe ser lo más genérico posible para poder ser utilizado en equipos de diversos fabricantes y por tanto por motivos lógicos y técnicos jamás podrá ser tan eficiente como lo es iOS por ejemplo en un iPhone). Así que por ejemplo, ARM no tiene el menor incentivo en crear circuitos de alta eficiencia para escáners 3D de reconocimiento facial, ya que solo tendría uno que otro cliente para esa aplicación (grandes como Samsung o Huawei que puedan invertir en eso), y por tanto prefiere mejor que tales fabricantes implementen esas funcionalidades en software en vez de hardware. Eso significa también que los chips genéricos de ARM tienen incluso "circuitos de más" que están ahí para satisfacer al más común denominador, que son diseños que aunque son optimizados para un bajo consumo energético y cierto poder de procesamiento, no están optimizados para las necesidades de un cliente en particular. Un ejemplo sería que la nueva versión de Android soporte escáneres faciales en 3D de forma nativa (sin que un integrador como Samsung o Huawei tenga que hacer su propia implementación sobre el Android base). Sería genial si ARM pudiese implementar los algoritmos ultra-demandante de procesamiento de CPU que este tipo de funcionalidad demanda, en hardware, para que sea más eficiente en términos de velocidad y consumo de memoria y energético, pero ARM no tiene incentivo de hacer tal cosa ya que asume que empresas como Samsung o Huawei utilizarán sus talentos internos para proveer u obtener módulos de IP que puedan integrar con los planos de ARM, y al menos que todo el mercado empiece a demandar tal funcionalidad ARM no levantará un dedo, y para cuando lo haga ya Apple habrá implementado lo mismo par de años antes. Un buen ejemplo de esto fue la movida de chips ARM de 32 bits a 64 bits. Fue Apple (y asombrosamente, no ARM) que lanzó el primer procesador ARM de 64-bits en el 2013, y el mundo Android tuvo que esperar casi 3 años después para poder tener algo similar viniendo de ARM. Y todo esto nos trae de re-regreso a Apple: El único cliente de Apple Silicon es... Apple. Si Apple le dice al equipo de ingenieros de Apple Silicon que en par de años planean lanzar unas gafas de Realidad Aumentada y que necesitan poner circuitos dedicados en sus chips para que los algoritmos que utilizarán esas gafas y los iPhones del momento puedan lidiar de forma eficiente con el flujo de datos que eso genera, eso más que una sugerencia sería una orden, y 12 meses después pueden apostar a que los nuevos iPhones y diseños de Apple Silicon ya contendrán circuitos dedicados para esa tarea. Esa es la razón principal por la cual el iPhone SE que cuesta US$400 ha sido comprobado que es mucho más rápido que el celular más caro de Samsung que cuesta cerca de US$1,500 dólares. Y es la misma razón por la cual un iPhone con 3GB de memoria RAM funciona marcadamente más fluido que un celular Android con 6GB de RAM, ya que en el ecosistema de Apple todo está integrado eficientemente y diseñado como un "todo". Esa es también la razón por la cual las baterías de los celulares iPhone son por lo general de menor capacidad que los celulares genéricos Android y aun así "misteriosamente" duran la misma cantidad de horas funcionando. Tiene que ver con el hecho de que en Android muchas de las funcionalidad básicas ejecutan en software y no en hardware de bajo nivel, lo que aumenta su consumo energético y los hace más lentos de paso. Un buen ejemplo de esto es el módulo de seguridad de Apple, el Digital Enclave. Este es un chip propietario de Apple que en tiempo real cifra todo lo que haces en tu iPhone, iPad o Mac, sin afectar ni en un 0.0001% el rendimiento de lo que hace tu dispositivo ya que todo el cifrado ocurre en circuitos dedicados creados especialmente para tal fin, dejado a tu dispositivo seguir trabajando en otras cosas. Esta es también la razón por la cual quien no entiende de estas cosas no se debe dejar llevar de benchmarks (programas que miden la velocidad de tu dispositivo) cuando comparan cosas muy diferentes como son los iPhones o Android. Aunque en actualidad prácticamente todos los benchmarks indican que los dispositivos de Apple son más potentes que la competencia, lo cierto es que esos programas no son un indicador del rendimiento real del sistema cuando pones en el paquete todas las optimizaciones que hace Apple tras bastidores. Lo que sí tiene más sentido es comparar un benchmark de un celular Android con otro Android, o un modelo de iPhone vs otro modelo de iPhone. Habiendo escrito esta kilométrica explicación, esto nos lleva finalmente al tema de moda hoy día: Apple Silicon en Macs... Muchos se le han reído en la cara a Apple con este anuncio alegando que "Apple planea utilizar un simple chip de celular en una computadora de trabajo serio, ¡nos jodimos!", pero les puedo asegurar que todo el que dice eso no sabe absolutamente nada de microprocesadores, o de lo que ocurre tras bastidores como les he explicado a ustedes en este artículo, o son simples haters que ya tienen nuevo material para hacer sus aburridas vidas menos miserables, o sencillamente son el tipo de personas que repiten como loros todo lo que leen en Internet sin revisar fuentes o investigar de lo que están opinando. Y lo primero que les voy a decir sobre Apple Silicon en Macs es lo siguiente: Prepárense para una gran sorpresa. Una buena sorpresa. Para los que no lo sepan, Apple ya ha entregado decenas de miles de "kits de transición" a desarrolladores de aplicaciones para que vayan adaptando sus aplicaciones a Apple Silicon en Macs, y los resultados no pudieron ser más positivos... Para iniciar, el kit contiene lo que es esencialmente una Mac Mini con el chip A12Z Bionic de Apple utilizando una versión beta de macOS 14 Big Sur. Sucede que ese chip es el utilizado en el iPad Pro de hace dos años atrás, y aún así los benchmarks (para los que les gusta comparar) indicen que esa Mac Mini con un chip no optimizado de hace dos años atrás obtiene una calificación de 4669 puntos en su CPU, comparada con la Surface Pro X de Microsoft que viene con un procesador Intel i5 que sacó una calificación de 2966. Pero eso no es nada: Sucede que el kit de Apple sacó esa calificación de 4669 corriendo en modo de emulación, es decir, el programa de benchmark en la Mac no estaba corriendo código nativo como el que correrá en las Macs reales cuando estas salgan a la venta a fin de año, y de paso estaba utilizando (reitero) un chip (1) de hace dos años atrás, (2) destinado para una iPad, y (3) no optimizado para Macs. ¿Qué significa todo eso? Pues para empezar podremos esperar que lo que sea que Apple tiene pensado para las nuevas Macs será marcadamente más potente que ese chip de iPad, y si nos llevamos de rumores tras bastidores esos nuevos chips vendrán con 12 núcleos (en vea de los tradicionales 2 o 4 núcleos en las Macs con Intel), lo que aumentará aun más su poder. Y lo mejor de todo (y ahora entenderán mejor todo lo escrito hasta ahora) esos chips de Apple Silicon vendrán con circuitos especializados específicamente creados para optimizar las funciones más comunes y/o importantes de macOS (cosa que Apple no le podía solicitar a Intel para sus chips x86-64), lo que aumentará aun más su rendimiento. De paso, esperen que las MacBooks de Apple ahora por fin dejarán de ser tan calientes (quien se haya puesto una MacBook Pro en sus piernas para trabajar sabe exactamente a lo que me refiero) y sus baterías pueden estar seguros que se extenderán considerablemente. Y esto de paso también incrementará los márgenes de ganancias para Apple (que aunque muchos se quejen, es precisamente lo que permite que Apple haga estas innovaciones), lo que al menos le da un colchón de costo a Apple para si la competencia se pone fuerte en un futuro esta pueda bajar sus precios cómodamente. Todo esto de paso significa también que tecnologías que tradicionalmente estaban destinadas a iPhone y iPad llegarán más rápidamente a Macs. Yo por ejemplo espero que las nuevas Macs vengan con FaceID para permitirme dejar trabajar con yo solo estar frente a mi máquina sin nececidad de entrar claves (cosa que ya puedo hacer con mi Apple Watch en combinación con mi Mac, pero sería mejor que no dependa ni de eso para entrar directo a trabajar, como lo hago con mi iPhone y iPad). Habiendo dicho todo eso, tengo que también aclararles algo que para algunos resultarán desagradable: Debido a las obvias diferencias entre el ISA de Intel y ARM, las nuevas Macs ya no podrán ejecutar Windows de forma nativa (con BootCamp), y por otro lado emuladores de Windows en x86 (como VMWare, Parallels Desktop y Virtual Box) tendrán que ser recreados para poder emular las instrucciones x86 en ARM (en actualidad ese paso no era necesario ya que los emuladores simplemente pasaban las instrucciones de Windows directo al CPU de la Mac que ya era x86). ¿Qué significa ese tema con Windows? Pues para empezar a Apple no creo le importe mucho ya que por lo general los que quieren el uso exclusivo de Windows no compran una Mac para tal fin por motivos de costos. Similarmente los gamers (comunidad de video-juegos) tradicionalmente nunca han comprado Macs para tal fin. Eso solo deja a los que compran una Mac como computadora principal y utilizan a Windows para temas de desarrollo de software u otros trabajos, y la realidad es que la gran mayoría de estos (yo incluido) no optan por BootCamp sino por virtualizar a Windows dentro de macOS. Así que la única incógnita que queda es qué tan bien podrán estos virtualizadores emular a Windows cuando tendrán que traducir en tiempo real las instrucciones de x86 a ARM en tiempo real, y para esto hay un par de respuestas potencialmente esperanzadoras... La primera es que Apple también anunció que incluirá un Hypervisor super avanzado en las nuevas Macs, con características que a la fecha solo existían en ambientes de servidores avanzados. El Hypervisor de Apple esencialmente permitirá particionar tu Mac en varias Macs virtuales de forma ultra-eficiente, y en donde cada Mac virtual podrá ejecutar otras versiones de macOS u otros sistemas operativos en paralelo (Apple habló especificamente de Linux como ejemplo), lo que será una mucho mejor manera de virtualizar en macOS que en actualidad. Y la segunda es que Apple muy bien puede crear circuitos especiales en Apple Silicon diseñados para hacer la traducción de x86 a ARM más eficiente (algo que si tuviera que apostar, diría ya está implementado). Así que como pueden ver, esto de Apple Silicon no es algo que Apple hizo a la ligera, sino algo extremadamente bien pensado que Apple ha venido cocinando desde años, y el futuro solo se pondrá mejor... Finalmente, es bueno mencionar mi predicción de enero 2007 en donde escribí (entre otras predicciones): "[...] imagínense que dentro de 5 años el iPhone sea tan poderoso y tenga tanta memoria como las computadoras personales mas potentes de hoy día. Eso significaría que con agregar un teclado, ratón y pantalla externa (todos inalámbricos), que no hay razón para que el iPhone no sea nuestra computadora personal en cualquier lugar." Esa visión, ahora que un iPhone podrá ejecutar macOS (si Apple así lo decide), ya está a la vuelta de la esquina. Similarmente y como he predicho antes, no me sorprendería que ahora que Apple ya tiene todos sus productos bajo una misma arquitectura que ahora decida crear una versión universal de su sistema operativo a la que llamo "appleOS" y que las distintas versiones para iPhone, iPad, Mac etc sean sencillamente variaciones o "Editions" de esta. ¿Y ustedes, qué opinan de todo esto? Si tienen preguntas o quieren que les aclare o expande algo, o tienen algún comentario adicional, escriban abajo y como siempre les contestaré en la brevedad. autor: josé elías |
37 comentarios
1,446,757 vistas |
Apple / OS X , Hardware , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software |
viernes, mayo 1, 2020
|
Hola amig@s lectores,
Como ya muchos lectores del blog sabrán, desde el 2006 todos los años a inicios del año suelo escribir mi lista de predicciones anuales sobre todo lo que creo sucederá durante el año a seguir, particularmente en el sector tecnológico, y usualmente también incluyo otro tipo de predicciones de ciencia, sociedad y hasta sobre el mundo del entretenimiento. Este año como muchos notaron no subí las acostumbradas predicciones sino que las compartí en formato crudo con un reducido número de personas allegadas, ya que aunque escribirlas para mi me resulta relativamente fácil, pasarlas a un formato Web y de forma amigable a la lectura es algo que me toma muchísimo tiempo, y a inicios de año pasé por unos temas personales bastante fuertes que me impactaron mucho con los tiempos. Y para colmo poco después llegó el tema del Coronavirus/COVID-19 y el mundo cambió y realmente tuve otras prioridades (como proteger a mi familia). Sin embargo en el Live que hice el domingo pasado alguien mencionó que debía sacarlas aunque fuese tarde, y la verdad es que me he animado a hacerlo, ya que en este formato en vivo no tendría que sentarme a escribirlas sino que sencillamente repasaría "en vivo" con ustedes lo que había escrito a inicios de año en mis notas crudas. La cita será este próximo domingo 3 de Mayo 2020 a las 2pm (14:00 horas) en horario de New York (acá abajo les dejo otros horarios dependiendo de donde residan, pero si no está el país de ustedes en la lista simplemente entren a Google y pregunten "time in new york" lo que les dará la hora actual en New York y en base a eso pueden calcular cuantas horas más o menos serán en dónde están). La cita será por el canal oficial de @eliax en instagram. Sabrán cuando inicie la transmisión en vivo en el momento que el logo redondo de eliax al tope izquierdo de mi perfil cambie con una etiqueta roja que dirá "Live" ("en vivo"). Acá los horarios exactos: Argentina, 3pm Bolivia, 2pm Brazil, 3pm Chile, 3pm Colombia, 1pm Costa Rica, 12 del medio día Ecuador, 1pm El Salvador, 12 del medio día España, 8pm Estados Unidos, central (Texas), 1pm Estados Unidos, costa este (New York, Miami), 2pm Estados Unidos, costa oeste (San Francisco), 11am Guatemala, 12 del medio día Honduras, 12 del medio día México, 1pm Nicaragua, 12 del medio día Panamá, 1pm Paraguay, 2pm Perú, 1pm Puerto Rico, 2pm Uruguay, 3pm República Dominicana, 2pm Venezuela, 2pm ¡Nos vemos en par de días! Actualización: A continuación el video del Live para los que no pudieron asistir: autor: josé elías |
19 comentarios
1,378,365 vistas |
Opinión / Análisis , Predicciones , Videos |
martes, abril 28, 2020
|
Hola amig@s lectores, En estos días de confinamiento por el COVID-19 es posible que hayan sido bombardeados en las redes sociales, portales de noticias, e incluso en programas de televisión (incluyendo testimonios aparentemente bastante convincentes de "expertos", incluyendo pilotos de la Fuerza Aérea Estadounidense) con unos supuestos "increíbles nuevo videos de OVNIs desclasificados por el Pentágono de los EEUU y demostrando que los extraterrestres están entre nosotros". Permítanme ahora decepcionarlos. Y con evidencia. Pero antes noten que escribo este artículo porque en los últimos días he recibido no menos de 30 a 40 mensajes de conspiranóicos con mensajes como "¿¡Y ahora qué dices tú de esto eliax!? ¡el mismo gobierno de los EEUU lo está admitiendo y está por toda la TV!". Claro. Si está en la TV tiene que ser cierto... Pues sucede mi queridos lectores que aunque esos videos son reales, lo que se interpreta en cada uno de ellos es totalmente falso, y he aquí lo que realmente está sucediendo. Para empezar, estos videos no son nuevos ni "acaban de ser revelados", y simple evidencia de ello es que los videos que les compartiré a continuación (que muestran los mismos 3 videos que están virales en el momento, pero analizados por un verdadero experto) fueron subidos a YouTube el año pasado, y esos videos en turno fueron obtenidos de eventos previos. Y a propósito, ese solo hecho ya debe de ponerlos medio incrédulos sobre el sensacionalismo de esos videos, pero vayamos ahora al grano... Miren para empezar un análisis sobre el primer de los tres videos (y si no saben inglés no se preocupen porque les resumo justo después del video abajo): Ahi pueden ver como Mick West, un experto en desmentir estos temas, explica con amplia evidencia que lo que vemos en la cámara no es más que el reflejo del sistema de cámara estabilizadora interna del avión. Ahí Mick les muestra en un video obtenido de mejor calidad cómo según gira el sistema de cámara tipo gimbal (muy conocido entre videógrafos profesionales) que también no solo giran las reflexiones de la cámara sobre la imagen pero además gira en conjunto el famoso "OVNI". Es decir, el "platillo volador" ni siquiera está fuera en el aire sino que es algo interno del sistema de cámaras. Ahora veamos el análisis del segundo video: Ahi se demuestra (basado en la telemetría de la cámara que se muestra en el mismo video) que la supuesta nave extraterrestre que viaja "a increíbles velocidades" a lo lejos realmente es un objeto muy cercano a a la cámara del avión volando a poco más de 300 nudos por hora (o en otras palabras, mucho más lento que la mayoría de aviones comerciales), demostrando que era una sencilla aeronave. Pero, ¿y por qué se veía tan rápida? Pues hagan este experimento: Saquen la cámara de sus celulares y extiendan el dedo pulgar frente a la cámara para que este se vea como parte del video, y ahora giren la cámara en 360 grados. Si analizan ahora el video, notarán que el dedo aparenta dar una vuelta a increíbles velocidades, pero eso es una ilusiíon óptica debido a que el dedo está cerca y el fondo en el horizonte está lejos. Es tan simple como eso. Y acá el análisis del tercer video: Y en este lo que sucede es bastante simple: Un avión comercial a lo lejos en contraluz. Debido a que está en contraluz su color aparece como negro contra el fondo iluminado del cielo, y aparece borroso por lo lejos que está. Y al ver el video en infrarrojo se nota que no es ningún sistema de propulsión "ultra avanzado" sino nada más que la firma de calor que lanzan los motores jet de cualquier avión terrestre. Sin embargo, creo que hay unas cuantas lecciones a aprender aquí, y realmente esta es la razón principal por la cual escribí este artículo: 1. Un video puede ser "oficial" y a la misma vez falso. Cualquiera de nosotros podemos hacer un video falso (o grabar algo que creemos es algo cuando no lo es), enviarlo a la Fuerza Aérea para análisis, y si ellos lo aceptan ya es un video "oficial" porque está en manos oficiales del Estado. Sin embargo, al analizar ese video se darán cuenta que es falso, y si en un futuro hacen público el video es obvio que será un video "oficial" pero "falso" a la vez. Y esa confusión sucede precisamente por la ignorancia de la gente con estos términos. Incluso es importante que sepan esto: A la fecha no ha existido un (1) solo video que haya sido catalogado como oficial y real por ninguna entidad estatal oficial del mundo. A la fecha el 100% de los videos de extraterrestres (sin excepción alguna) han sido desmentidos y catalogados o como (1) falsos o (2) mal clasificados (es decir, al final eran otros aviones, o meteoros, o cometas, o satélites, o globos aerostáticos, o ilusiones ópticas, o desperfectos en los equipos de captaciones de imágenes, etc). 2. "OVNI" no es lo mismo que "extraterrestre" Por favor, métanse esto en la cabeza de una vez por todas: OVNIs significa literalmente "Objeto Volador No Identificado" (y en inglés UFO significa lo mismo, "Unidentified Flying Object"). O en otras palabras, un objeto es clasificado por el gobierno y los científicos como OVNI/UFO cuando todavía no lo han clasificado. Eso es todo. No hay que ni buscarle la quinta pata al gato ni asumir que son "extraterrestres". Han sido los conspiracionistas de extraterrestres los que se han apropiado de la palabra y tratado de cambiar su significado (similar a como tristemente la prensa cambió el bello significado de la palabra "Hacker" y lo convirtió en algo malo y que solo aplica a personas malignas). 3. Usen un poco de sentido común Por favor háganse esta pregunta: ¿Realmente creen que una civilización que tenga tecnología extremadamente avanzada, lo suficiente como para viajar las increíbles distancias de posibles millones de años luz para llegar a nuestro planeta, van a ser tan idiotas e ineptos como para dejarse perseguir por los aires por aviones que vuelan a unos pocos cientos de kilómetros por hora? Sin embargo, si esa pregunta no les satisface sucede que hace unos años escribí todo un artículo al respecto respondiendo a la pregunta de si hemos sido visitados por extraterrestres o no, y que pueden leer aquí. En resumen, y cómo diría Carl Sagan, alegaciones extraordinarias requieren evidencias extraordinarias, y a la fecha no hemos visto la primera pista remotamente creíble de que hemos sido visitados por extraterrestres. Actualización: Gracias a los lectores que notaron que el segundo video que puse era repetido del tercero. Ya hice las correcciones de lugar y el segundo video ya está corregido. autor: josé elías |
14 comentarios
790,359 vistas |
Curiosidades , Educación , Opinión / Análisis , Tecnología Espacial |
viernes, abril 24, 2020
|
Hola amig@s lectores, Como ya sabrán algunos, al final del artículo que escribí hace una semana sobre la increíble nueva herramienta científica de los Hiper-gráficos, que posiblemente nos ayude a responder a las más fundamentales preguntas de nuestra existencia (como ¿de dónde y cómo surgió nuestro universo? ¿qué es el tiempo, masa, energía, y materia?), propuse la posibilidad de hacer un evento en vivo por alguna red social para que hablemos un poco más del tema, y de paso puedan hacer sus preguntas. Así que me complace anunciar que la cita será este próximo domingo 26 de abril 2020 a las 11am en horario de New York (acá abajo les dejo otros horarios dependiendo de donde residan, pero si no está el país de ustedes en la lista simplemente entren a Google y pregunten "time in new york" lo que les dará la hora actual en New York y en base a eso pueden calcular cuantas horas más o menos serán en dónde están). La cita será por el canal oficial de @eliax en instagram. Sabrán cuando inicie la transmisión en vivo en el momento que el logo redondo de eliax al tope izquierdo de mi perfil cambie con una etiqueta roja que dirá "Live" ("en vivo"). Y ojo, esta no será una charla formal, sino que un simple conversatorio super informal con ustedes, en donde les pueda expandir o aclarar un poco más el tema mientras respondo a sus posibles inquietudes. Noten además que elegí este horario relativamente temprano en el continente americano para que los seguidores de España y otros países europeos también puedan sintonizar. Acá los horarios exactos: Argentina, 12 del medio día Bolivia, 11am Brazil, 12 del medio día Chile, 11am Colombia, 10am Costa Rica, 9am Ecuador, 10am El Salvador, 9am España, 5pm Estados Unidos, central (Texas), 10am Estados Unidos, costa este (New York, Miami), 11am Estados Unidos, costa oeste (San Francisco), 8am Guatemala, 9am Honduras, 9am México, 10am Nicaragua, 9am Panamá, 10am Paraguay, 11am Perú, 10am Puerto Rico, 11am Uruguay, 12 del medio día República Dominicana, 11am Venezuela, 11am Y recuerden leer el artículo antes del Live, si les gustan estos temas creo que quedarán tan intrigados como yo sobre este fascinante adelanto científico. Actualización: ¡Gracias a todos los que sintonizaron! ¡La pasamos genial y las preguntas al final fueron muy interesantes! Actualización 2: A continuación el video del Live para los que no pudieron asistir: autor: josé elías |
6 comentarios
841,579 vistas |
Ciencia , Curiosidades , Educación , Opinión / Análisis , Software , Tecnología Espacial , Videos |
jueves, abril 16, 2020
|
Hola amig@s lectores, Tengo dos días leyendo en cualquier tiempo libre que puedo encontrar sobre uno de los acontecimientos de la humanidad más increíbles de todos los tiempos, algo que fue anunciado antes de ayer (en un artículo de más de 25,000 palabras de largo), que me tiene alucinando, y que quiero comunicar de forma “eliaxística” a todos ustedes. Amárense los cinturones porque esto será una paseo divertido… Leer el resto de este artículo... autor: josé elías |
45 comentarios
802,375 vistas |
Ciencia , Curiosidades , Educación , Opinión / Análisis , Software , Tecnología Espacial |
jueves, marzo 26, 2020
|
Como millones de dominicanos, esperé anoche impacientemente el discurso del Presidente de nuestra nación, esperado con ansias las medidas que tomaríamos ahora que se ha hecho evidente que hemos entrado en una etapa crítica con el coronavirus (COVID-19) en República Dominicana, y aunque ciertamente hay mucho que aplaudir del discurso (muy orientado a las clases menos pudientes que son las más afectadas en estos casos), creo que hay para mejorar, y aquí con todo el respeto posible expreso cómo.
El gran problema que tenemos con este virus es que como escribí hace unos días, ya estamos en la curva de crecimiento exponencial de este en el país (las primeras cifras oficiales de infecciones concuerdan increíblemente bien con las predicciones que hice en ese artículo), y por tanto ya pasamos la etapa y la oportunidad de poder contener el virus con medidas menos drásticas. El gobierno hizo bien en alertar a la población de los estragos del virus y de la importancia de mantener una distancia interpersonal, pero ahora hay que ponerse más estrictos, y para eso vamos a estudiar brevemente las dos formas que han demostrado ser efectivas en detener el virus... La primera fue aplicada en Corea del Sur, en donde desde que se detectó el primerísimo caso del virus las autoridades reaccionaron sin titubear e identificaron a los primeros portadores, efectivamente deteniendo el crecimiento exponencial del virus antes de que fuese demasiado tarde. Sin embargo, esa opción ya no la tenemos en nuestro país. La segunda forma que ha probado ser efectiva (y que siempre ha sido efectiva en casos similares) conlleva el aislamiento total de la población (como lo hizo el muy inteligente Presidente de El Salvador, Nayib Bukele). Y aclaremos por si no queda claro, con aislamiento total se quiere decir explícitamente eso, un período de cuarentena durante el cual la vasta mayoría de la población (salvo personal de emergencia y primeras necesidades) permanezca en sus hogares las 24 horas del día, posiblemente durante unas 3 semanas. ¿Por qué? Porque al cabo de ese período se habrán identificado esos hogares en donde (1) se encuentren personas infectadas o que se sospecha estén infectadas, (2) se habrá detenido el contagio entre la población por contacto directo, y (3) se habrá eliminado el virus de superficies en lugares públicos o comunes (el contacto indirecto). Sin embargo muchos (y es fácil entender por qué a simple vista) dicen que un período de cuarentena nacional impone un gran peso económico sobre la sociedad, así como sería desastroso para la clase que vive del día a día con escasos recursos, pero siendo enteramente racionales ¿qué creen ustedes tendrá un efecto más desastroso, (1) una cuarentena ordenada y planificada ahora, o (2) una cuarentena forzada en medio del caos? La lógica y el sentido común dicen que una cuarentena después costará varias órdenes de magnitud más que hacer una ahora, así como se salvarían incontables vidas, eso sin mencionar el gran costo de salud que nos ahorraremos, ya que hay evidencia irrefutable de que una buena parte de los que están sobreviviendo al virus terminan con problemas respiratorios que muy posiblemente tendrán su secuela durante toda la vida, poniendo así una estrés adicional en el sistema de salud público y privado. Pero, ¿por qué sería el problema más serio después? Pues cómo expliqué en mi artículo anterior, la intuición humana es muy mala a la hora de entender lo que significa que algo crece "exponencialmente". Cuando algo como el coronavirus que duplica su ritmo de infección cada 2 o 3 días ya tiene 20,000 casos de infectados al cabo de 4 semanas, ya para la 8va semana esa cifra alcanzaría los 10 millones (y no 40,000 como diría la intuición ignorante a simple vista). Pero lo peor es que no es solo eso... Si no se toman medidas drásticas ya (cosa que debió hacerse hace 6 semanas atrás como mínimo), y se frena el crecimiento exponencial del virus, nuestro sistema de salud colapsará por la demanda (ya colapsó en Italia, España, y en la ciudad de New York en EEUU), y en un país de tercer mundo como el nuestro con tantas precariedades públicas eso solo puede significar una cosa: infección y muertes a gran escala. Pero es no es todo... Para ese momento debido a que será necesario el aislamiento para los que deseen sobrevivir, colapsará también la economía por falta de mano de obra y de personal capaz de poder laboral remotamente, y al colapsar la economía colapsarán las necesidades básicas de los ciudadanos, y los primeros que sentirán ese azote será la clase que vive del día a día, y cuando estas personas vean a sus hijos pasando hambre o enfermos, no duden que naturalmente empezarán a saquear mercados, supermercados, farmacias, y pronto después se recurrirá al vandalismo, y próximo después a la anarquía y al caos (y en medio de todo ese escenario continuaría creciendo el virus y la cantidad de víctimas en un efecto dominó). Y para entonces ya no habrá marcha atrás. Cualquier plan del gobierno de asistir con sueldos suplementarios, tarjetas de solidaridad, o paquetes de comida no podrá tener efecto porque no tendremos ni los medios para ejecutar tales programas, y ya será cuestión de "sobreviva quien pueda". La pesadilla cesará con los que logren sobrevivir tanto al virus como a la demencia social generalizada. Entonces, ¿cuál es la recomendación?, pues la más lógica matemáticamente, aislamiento total de las personas en sus hogares por 3 semanas, de forma rápidamente planificada, para que la gente se prepare en la medida de lo posible y mantener personal activo solo para las necesidades básicas (electricidad, luz, gas, agua, telefonía, internet) y siguiendo un protocolo super estricto (relacionado de hace 11 años en eliax). Y por estricto me refiero a que toda persona que ande en las calles sea fuertemente multada, que se le cree automáticamente un expediente delictivo (pues está intencionalmente atentando contra la vida de los demás de forma masiva, y por tanto debe ser considerado un acto terrorista), y que solo se pueda salir de la casa para casos extremos de emergencia (nacimientos, accidentes, ataques cardíacos, etc). Sé que sería un sacrificio inmenso sin precedentes, pero la alternativa sería descomunalmente peor y a un costo inmensurablemente superior, no solo en términos económicos sino particularmente en vidas. Y ahora finalizo con una predicción: Las matemáticas no mienten (y prueba de ello es que el virus se está esparciendo de forma extremadamente similar a como predije haría en mi artículo previo a este): En los próximos días lo más prudente que el gobierno verá como opción para resolver la crisis será declarar una cuarentena obligatoria de la nación por unas semanas. Y si mi predicción falla, prepárense... - p.d. Favor compartir este artículo con el hashtag #QuieroCuarentenaRD - autor: josé elías |
34 comentarios
632,661 vistas |
Educación , Opinión / Análisis , Predicciones , Salud , Tecno-Seguridad |
"wow.. realmente es bastante difícil de creer, hasta creí que nunca me gustaría esa clase de música.. pero ella me cambió mi propia perpectiva adelante de esa cultura, música o como sea.. es simplemente AWESOMEE!!"
en camino a la singularidad...
©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax