miércoles, septiembre 4, 2024
|
Hola amig@s lectores,
Si les dijera que este artículo completo fue escrito por una Inteligencia Artificial (IA), ¿me lo crearían? Hace apenas dos años atrás quizás no, pero con la llegada de una nueva generación de IAs del tipo LLM (Large Language Model) como ChatGPT es posible que muchos de ustedes no sepan qué responderme. Y eso, es un problema. Aunque por un lado estamos adentrándonos en uno de los más emocionantes (sino, el más emocionante) momentos de la humanidad, a la misma vez esto trae consigo un nuevo tipo de problemas, problemas que aunque no son totalmente nuevos (me refiero a la capacidad de hacer creer que algo ficticio es real) sí podemos decir que amplifica de forma exponencial esos problemas anteriores. Como ejemplo, el año pasado se hizo viral una imagen del Papa Francisco aparentemente modelando un abrigo de nieve en una pasarela, y poco después se hizo viral otra imagen de Elon Musk aparentemente enamorado de una mujer cibernética, y recientemente hemos visto personas como Donald Trump utilizar tecnología deep fake e imágenes de famosos creadas enteramente por software para hacer aparentar que esas personalidades apoyan su segunda candidatura presidencial en los EEUU. Pero eso apenas es el comienzo… Nos estamos adentrando a un mundo en donde no vamos poder estar seguros de nada de lo que leemos, vemos o escuchamos, y esto tendrá graves repercusiones sociales de forma masiva, al menos que tomemos medidas al respecto (medidas que sugiero más adelante en este mismo artículo). Imaginen por ejemplo si llega un reclamo a una empresa de seguros, con no solo evidencia de audio de una llamada telefónica pidiendo auxilio, sino además fotografías desde múltiples ángulos del accidente reportado, y hasta video de una cámara de seguridad cercana a los hechos. Hasta hace par de años esta evidencia se hubiese considerado prueba contundente de que el supuesto accidente reclamado realmente sucedió, y la empresa aseguradora hubiese sido obligada a pagar potencialmente millones en daños. Pero, hoy día, ¿cómo podemos estar seguros de que esa llamada telefónica, esas fotos y ese video no fueron generados por las más recientes versiones de programas como Midjourney o Sora de OpenAI? Similarmente, si recibes una llamada de emergencia de un familiar cercano, y la voz es idéntica a esa persona, e incluye incluso el tipo de lenguaje que utilizaría, con las mismas expresiones que caracteriza a esa persona, ¿enviarías algo dinero de ayuda a esa persona para sacarla de un apuro? Si la pregunta anterior les intrigó, noten el caso de un ejecutivo de una empresa multinacional con sede en Corea del Sur, a quienes unos hackers estafaron US$25 Millones de dólares al convencer a alguien en la empresa para que transfiriera esa cantidad de dinero. ¿Y cómo lo lograron? Pues convocaron a una víctima en el departamento de finanzas (que teníala capacidad de hacer transferencias bancarias) a una reunión virtual con el supuesto General General de Finanzas y varios otros ejecutivos de alto nivel de la empresa para discutir un asunto urgente, y sucede que todos los “ejecutivos” de la reunión habían sido personificados con tecnología deep fake para crear avatars/clones de ellos que se veían, hablaban y comportaban como los seres humanos que reemplazaban. Es decir, en esa llamada de videoconferencia grupal, la única persona real era la víctima, y todos los demás integrantes que participaron en la videollamada eran clones digitales de sus otros compañeros de trabajo y superiores de la empresa. Estos avances en Inteligencia Artificial Generativa (IA que genera desde cero cualquier tipo de contenido que puedas imaginar) están proveyendo a una nueva generación de criminales digitales un nuevo conjunto de herramientas para engañar, estafar, atacar, sabotear, sobornar y robar a una escala hasta hace poco inimaginable. Estamos literalmente entrando a un umbral en donde se está haciendo extremadamente difícil (por no decir casi imposible) distinguir lo real de lo falso. Y el gran problema que eso trae es que la sociedad humana desde sus orígenes se mantiene estable en base a una sola cosa: La confianza. ¿Y cómo podrá funcionar una sociedad en donde no exista confianza a nivel personal, profesional, institucional o a cualquier otro nivel? Es decir, ¿cómo sabes que la tienda a la cual le estás comprando algo online es real? ¿Cómo sabes que el portal o app de tu banco no es uno falso? ¿Cómo sabes que con quien estés hablando en una videoconferencia es quien dice ser? ¿Cómo sabes que el video que viste de un ser querido supuestamente haciendo una fechoría es real? ¿Cómo sabes que los resultados de tus búsquedas en Internet son reales? ¿Cómo sabes que el video de tu hija haciendo pornografía no es real? ¿Cómo sabes que la empresa con la cual llevas semanas negociando es real? ¿Cómo sabes que las autoridades gubernamentales que te están demandando un pago de impuestos es real? ¿Cómo sabes que un documento científico que estás leyendo es real y cita fuentes reales y contiene datos reales? ¿Cómo sabes que las noticias que estás viendo es real? ¿Cómo sabes que lo que dice el próximo candidato presidencial es reall? Bajo este nuevo esquema social que estamos entrando gracias a la IA Generativa se hará casi imposible operar, creer o maniobrar, y podríamos fácilmente llegar a un estancamiento social de proporciones épicas. Sin embargo, hay soluciones que podemos implementar como sociedad. La primera es una recomendación que hago a nivel familiar y de amigos cercanos, y es la de crear una palabra o frase clave que solo ustedes conozcan, y que nunca hayan comunicado de forma digital en ningún momento, de modo que si algún día reciben una llamada de emergencia o de alguna otra índole dudosa, ustedes puedan preguntar la palabra o frase clave para verificar la identidad de la persona al otro extremo de la comunicación. Así que por ejemplo, si en una reunión familiar nos ponemos de acuerdo de que nuestra palabra de seguridad será “Segismundo”, y posteriormente recibes una llamada de un familiar aludiendo una emergencia y pidiendo una transferencia de dinero, lo primero que le preguntarías es la palabra clave secreta. Si la persona no pueda contestarla (o al menos decirte el lugar y otros datos del día en que acordaron la clave) eso significa entonces que esa persona está posiblemente siendo personificada por un hacker con tecnología deep fake. La segunda sugerencia es una sugerencia tecnológica que debemos exigir se integre a toda tecnología que capture o genere contenido en cualquier formato (sea texto, sonido, imágenes o videos), y tiene que ver en que desde su misma fuente debemos poder codificar una firma digital que podamos verificar contra alguna fuente. Así que por ejemplo, bajo este esquema toda cámara digital, todo celular, todo micrófono y toda IA que genere imágenes, texto, sonido o video debe poder incrustar información que permita comprobar que el cotenido o fue (1) generado por medios “orgánicos” (como por ejemplo, un video que capturaste en un cumpleaños) o (2) por medios sintéticos (como un video de un cumpleaños imaginario generado por una IA), así como proveer información de su fuente (como el autor, fecha de creación, etc). De esta manera, si vemos una noticia o leemos un libro o artículo, o recibimos una llamada de audio o participamos en una videoconferencia, podemos tener algún grado de certeza de que lo que percibimos es real o sintético y de su actual procedencia. Para esto es necesario desarrollar estándares tecnológicos en la industria para que la información capturada (por ejemplo) por una cámara digital esté cifrada desde el momento que es capturada por su sensor de imagen, y para que una firma digital sea parte de la imagen antes de que esta se almacene o esté disponible para distribuirse, y de paso que en cualquier momento se pueda detectar si el contenido fue alterado en lo más mínimo. Una buena noticia es que ya existe una iniciativa de parte de algunos fabricantes de cámaras y líderes de la industria para crear algo similar, e incluso ya existen algunas cámaras profesionales del mercado con tecnología similar a esto, y de paso ya existe investigación para crear sistemas que incluyan watermarks (“sellos de agua” digitales) en habla generada por IA Generativa, e incluso ya existe una propuesta de ley en el estado de California en EEUU para requerir que todo contenido sintético tenga que venir con un watermark, por lo que poco a poco veremos este tipo de tecnología esparcirse a todo sistema que genere contenido de alguna forma. Y esperemos que estas soluciones ocurran más temprano que tarde, ya que de no ser así nos arriesgamos a que la falta de confianza en nuestros sentidos nos lleven a un caos social con resultados posiblemente catastróficos para la humanidad. - p.d.: Para los curiosos sobre la pregunta que puse al inicio del artículo, no, este articulo no fue escrito por una IA. O al menos eso le digo a ustedes… Actualización El lector Sergio Hernandez hizo una buena observación en los comentarios sobre el tema de firmas digitales, y respondí a su comentario para aclarar que cuando hablamos de una firma de agua digital hablamos de una firma criptográfica basada en el concepto de un Hash (y por extensión en cifrado de datos con llaves públicas y privadas), sin embargo esos son conceptos demasiados técnicos que extenderían demasiado este artículo, lo importante es el concepto de poder verificar la fuente de algo. autor: josé elías |
21 comentarios
146,589 vistas |
Audio / mp3 , Cámaras Digitales , Celulares / Móviles , Ciencia , Derecho Digital , Educación , Futuro Digital , Internet , Negocios , Opinión / Análisis , Predicciones , Psicología , Redes Sociales , Robots & I.A. , Software , Tecno-Seguridad , Tecnología Visual |
lunes, junio 5, 2023
|
Hola amig@s lectores,
El día que muchos estábamos esperando por fin ha llegado. Apple acaba de anunciar hoy sus rumoreadas (por años) gafas de “realidad extendida”, el “Apple Vision Pro”, y lo que vi hoy me ha dado mucho que pensar, así que abróchense los cinturones para embarcarnos en un análisis eliaxístico sobre este nuevo producto… Nota: para los curiosos que no se puedan aguantar, vayan y visiten primero ahora la página oficial del Vision Pro en el portal de Apple, y después que vean todo ahí regresen acá para mis opiniones, análisis y predicciones. Lo primero que voy a decir en cuanto a primeras impresiones es que hay que aplaudir la maquinaria mercadológica de Apple, es asombroso la forma clara que tienen de anunciar un producto e ir directamente a la psicología humana para hacerte desear vaciar tu cuenta bancaria o ponerte en plan de ahorros para comprar uno lo antes posible. Sin embargo, aun con excelentes primeras impresiones, siempre hay una dosis de realidad con la cual tarde o temprano hay que enfrentarse, y este artículo de hoy es para que aterricemos y pensemos todo en frío. Hoy les hablaré de las tecnologías que nos trae el Vision Pro, y lo que opino sobre lo que nos ofrece y sobre lo que creo le falta, y de lo que Apple puede hacer a futuro para mejorar. Pero iniciemos con los hechos: El Vision Pro realmente es algo extraordinario desde el punto de vista técnico, es el visor de Realidad Virtual y Realidad Aumentada/Extendida más avanzado del mundo, sin duda alguna, y entre sus cualidades se destacan las siguientes: 1. Tiene dos pantallas creadas especialmente para el Vision Pro que en conjunto tienen 23 millones de pixeles, lo que equivale a 11.5 millones de píxeles por ojo. Como referencia, una pantalla 4K tiene unos 8.3 millones de píxeles, por lo que estas micro-pantallas tienen mayor resolución por ojo que la TV 4K que está en tu casa o la casa de tus amigos. Notar además que si utilizas lentes medicados que Apple ofrecerá adaptadores compatibles con tu visión que se conectan de forma magnética al interior del Vision Pro. 2. Tiene 12 cámaras integradas, que se utilizan para varios fines, desde ver tus manos y el medio ambiente hasta permitirte tomar fotos y videos. 3. Contiene 5 juegos de sensores de todo tipo (distancia 3D, lector de ojos, etc), 6 micrófonos, y 2 auriculares especialmente diseñados para que escuches sonido envolvente en 3D. 4. Ofrece una super innovadora pantalla externa que proyecta tus ojos al mundo exterior. Pero no es cualquier pantalla, es una pantalla lenticular que es otra forma de decir que transmite imágenes en 3D para que dependiendo del ángulo que alguien te esté viendo, pueda ver el interior de tus gafas junto a tus ojos en 3D. O en otras palabras, esta funcionalidad da la ilusión de hacer la parte frontal del Vision Pro transparente para que alguien pueda verte directo a los ojos. Esto es bastante innovador. 5. El sistema de renderizado interno en 3D adopta una técnica que se llama en inglés “foveated rendering”, que es algo que ya algunas otras gafas de alta gama han implementado de una forma u otra, que permite que estas rendericen información de alta definición solo en la dirección que tus ojos miran, de modo que el perímetro se pueda renderizar de menor calidad y por tanto requiriendo menos poder de procesamiento, ahorrando energía, y mejorando la fluidez de los gráficos. Y noten que esto es como la combinación del ojo humano y el cerebro perciben el mundo, en donde en el centro del ojo vemos en alta definición y todo color, y en el perímetro vemos con imagen degrada (cosa que no notamos porque el cerebro es un excelente “rellenador” de información). 6. Te reconoce con solo verte en los ojos, con lo que Apple llama “Optic ID”, que similar a las películas de Hollywood lee tu retina (que es única en cada individuo del planeta) para identificarte (incluso si tienes un hermano gemelo idéntico). Esto reemplaza el Face ID y el Touch ID tradicional de otros productos de Apple en el Vision Pro. 7. La interfaz es totalmente natural, utilizando tus ojos (el Vision Pro sabe lo que ves en pantalla), tu voz (opcionalmente dependiendo de lo que estés haciendo) y tus manos (para seleccionar e interactuar con el medio ambiente sin necesidad de controles externos). Según Apple, puso mucho empeño en crear un nuevo “lenguaje de uso” similar a los lenguajes de uso que utilizó al crear la Mac, el iPod, el iPhone, y el iPad, y alega que aplicó a unas 5,000 patentes de tantas innovaciones técnicas que tiene el Vision Pro en su diseño e implementación. 8. De paso viene con dos potentes procesadores, un chip M2 de Apple (el mismo que tiene la nueva MacBook Air de 15” también anunciada hoy), y un chip especialmente dedicado para el Vision Pro llamado el R1 (que asumo significa el “Reality 1”), creado especialmente para manejar el monumental flujo de datos en tiempo real que debe procesar el Vision Pro para todo lo que hace. 9. El Vision Pro también contiene un pequeño dial (similar al del Apple Watch) el cual al girar haces que gradualmente la realidad vaya desvaneciendo y solo veas la realidad virtual generada dentro de las gafas. Pero aparte de eso, el software también hace cosas bastante impresionantes. Por ejemplo, cuando alguien se aproxima a ti, el Vision Pro detecta eso y te superimpone de forma gradual la persona para que la veas y puedas interactuar con ella, mientras que al mismo tiempo el Vision Pro despliega la imagen de tus ojos en formato casi holográfico para que la persona note que la estás viendo y puedan hablar cara a cara (o ojos a ojos) de forma natural. Y es bueno notar que para que todo esto se haga posible que el Vision Pro contiene cámaras externas de super alta calidad para que experimentes el mundo similar a como lo verían tus propios ojos, sin tú tener que desmontarte las gafas. Todo esto viene apoyado por un nuevo sistema operativo al que Apple ha bautizado como “visionOS”, especialmente diseñado para el Vision Pro y de paso compatible (con una recompilación de código) con las millones de Apps de iOS, iPadOS y macOS. Ya por ejemplo Apple anunció que Microsoft tendrá versiones de Office especialmente para el Vision Pro que en esencia te permitirán utilizar este visor como una especie de Mac (algo que predije hace unos días atrás por mis redes sociales), por lo que al inicio aunque quizás no tengamos muchas aplicaciones específicas para el Vision Pro, posiblemente si tendremos muchas aplicaciones clásicas disponibles ante nuestras manos y ojos en el mundo virtual. Es bueno notar que en la presentación pudimos ver algunos ejemplos bastante buenos de uso del Vision Pro, destacándose el uso del Vision Pro para ver juegos deportivos en vivo de forma virtual sin tu tener que estar en el campo de juego (esto se logra con cámaras especiales que se colocan en los eventos deportivos), lo que serviría también para ver conciertos, asistir a conferencias, etc. Disney también traerá muchas experiencias para el Vision Pro, en juegos, películas y otras experiencias dedicadas. Ya imagino poder ver a AVATAR en 3D en esto. Apple también anunció versiones especiales de casi todas sus Apps que estarán disponibles para el Vision Pro, el cual según Tim Cook (el CEO de Apple) esta es la evolución del iPhone, a lo que llaman “Computación Espacial” (“espacial” no como en espacio de cohetes y naves y estrellas, sino como espacio de trabajo volumétrico). Sin embargo para mi dos cosas que van a seducir a los usuarios del Vision Pro (o al menos a aquellos que puedan pagar su precio inicial) son las implementaciones de cámara y FaceTime de Apple. Con la cámara ahora podrás capturar videos en 3D del mundo a tu alrededor, los cuales ahora podrás almacenar como memorias digitales futuras o para compartir con tus familiares y amigos para que estos tengan una experiencia muy similar a la que tuviste tú el día que lo grabaste. Esto tendrá un gran impacto emocional que estoy seguro será replicado por la competencia muy rápidamente. Y con respecto a FaceTime, Apple creó una tecnología que con Inteligencia Artificial y los sensores del Vision Pro pueden generar un avatar ultra-realista y totalmente fotorealista de tí mismo, lo que significa que si haces una video-conferencia con otros usuarios de Vision Pro, todos se verán con sus caras reales en medio de reuniones. Así que imaginen por ejemplo una reunión de negocios en mesa redonda, o un grupo de familiares remotos reunidos todos frente a una fogata, en ambos casos aun tengamos el visor puesto, del otro lado nos percibirán como somos y con todo nuestro rango de expresiones, lo que creará una conexión humana muy diferente a los otros sistemas de chat virtuales existentes en donde otro “muñeco” que más o menos se parece a ti te reemplaza. Esta funcionalidad es otra que creo será también estándar en visores de la competencia eventualmente. Ahora bien, hasta aquí todo bien, yo incluso estaba esperando ya con mi tarjeta de crédito a mano listo para ponerme en la lista de ordenar uno o dos de estos aparatos, sin embargo, hay tres cosas en las que opino Apple falló esta vez y que me detuvieron (en donde la primera de ellas fue realmente la que me detuvo más que todo): Lo primero es el precio de US$3,499 dólares (no es un error tipográfico, sí, tres mil quinientos dólares esencialmente), con salida al mercado a inicios del 2024. Para mi (y algo me dice que para la vasta mayoría de personas fuera de Apple) este precio es demasiado alto, incluso bajo los estándares de Apple. A este precio salvo un nicho de personas (de clase alta, desarrolladores de software, y los más fieles entre los fieles fanáticos de Apple) van a comprar este dispositivo, y aunque estoy seguro que se venderán unos cuantos cientos de miles o bajas millones de unidades, a este precio este no es un producto con el cual una empresa puede revolucionar este mercado. Para mi, un precio que hubiese sido irresistible es US$999 dólares, e incluso hasta US$1,499 hubiera tenido ventas excelentes (y la bendición de mi cuenta familiar), y si consideras que esto podría hacer la labor de una Mac o iPad quizás hasta te puedas convencer a ti mismo de pagar US$1,999, pero US$3,499 es demasiado. Y ese precio me pone a pensar. ¿Por qué tan caro? ¿No sabían los estudios mercadológicos internos de Apple que este precio sería demasiado alto para consumidores? Asumiendo que Apple no esté alucinando, creo que Apple nos ha dejado una pista de por qué ese precio es el que es, en el mismo nombre del dispositivo. El “Pro” en “Apple Vision Pro” me dice que Apple posiblemente considera este primer dispositivo más que todo como una demostración de todo lo posible que pueden lograr, un dispositivo sin igual que aun con ese precio será comprado por un nicho inicial del mercado, en particular el de desarrolladores de software, y más adelante nos presentará (¿quizás el próximo año?) su simplificado “Apple Vision” (sin el “Pro”) a un precio muchísimo más reducido y con ciertos recortes (por ejemplo, sin mostrar tus ojos holográficamente en una pantalla externa), y quizás a mitad de precio. Sin embargo, hasta que no bajen el precio por debajo de la barrera psicológica de los US$999 (o incluso quizás los US$1,499) será difícil que Apple logre vender 20, 10 o incluso 5 millones de estos dispositivos al año. La segunda cosa que me sorprendió es que la batería externa que requiere el Vision Pro solo es suficiente para 2 horas de uso. Como mínimo Apple debió apuntar a 4 horas, incluso si fuese una batería un poco más grande y más costosa (por suerte, estoy seguro que el mercado de terceros proveerá reemplazos a precios razonables y de mayor duración). Y la tercera cosa que veo es que Apple pudo haber hecho una cosa para convencer a muchos de adquirir un Vision Pro incluso a ese precio exorbitante: Compatibilidad directa con aplicaciones de Mac. Esto último para mi hubiese sido clave. Imaginen por ejemplo que trabajan remotamente o incluso en una oficina pequeña, o están de viajes. En vez de cargar una laptop contigo, simplemente llevas un teclado, un ratón y el Vision Pro, y en un abrir y cerrar de ojos (literal) ves frente a ti un monitor virtual del tamaño que desees (literalmente, desde 32” hasta varios metros de ancho) en donde aparece tu Mac virtual y en donde puedes trabajar de una forma super productiva en cualquier lugar. Podrías por ejemplo estar en un asiento de avión y sin embargo percibir que tienes varias pantallas (una por aplicación si así lo deseas) flotando delante de ti, y sin que nadie pueda ver tus pantallas por motivo de privacidad. Eso para mi representa una oportunidad perdida de Apple de haber podido captar una gran cantidad de profesionales (yo hubiese sido uno de ellos). En este aspecto por ahora solo cuesta esperar a que los desarrolladores migren todas sus aplicaciones una a una para que se puedan utilizar adecuadamente en el Vision Pro (algo que creo sucederá tarde o temprano), por lo que en mi caso me veo con un Vision Pro en mis manos dentro de una o dos generaciones más (y mientras tanto existe también la posibilidad de utilizar aplicaciones como Google Docs en el navegador web Safari del Vision Pro). Ahora bien, ¿significa esto que el Vision Pro es un producto adelantado a su tiempo o que Apple va a fracasar con esto? No en lo absoluto. Aun si no se venden suficientes unidades, esto ya de por sí ha marcado el rumbo a seguir en la industria, y en una sola presentación de unos pocos minutos Apple ha dejado claro que ya el dispositivo contra el cual todos los demás serán juzgados es el Vision Pro, lo que al mediano plazo le cae bien a Apple ya que cuando por fin logre bajar los precios para un modelo más amigable a los bolsillos de los consumidores, estos estarán listos para comprar. Esto de paso es un gran paso para la industria de la realidad virtual y aumentada en general, ya que Apple acaba de revelar y demostrar nuevas formas de interactuar que son más humanas, naturales y amigables a los modelos actuales, cosa que sin duda aumentará la curiosidad de los consumidores y la adopción de dispositivos de todas las marcas. Meta (Facebook) debe estar ahora mismo bastante emocionada con lo presentado por Apple, pues aunque incluso su recién-revelado Meta Quest 3 no se acerca a casi nada de lo que hace el Vision Pro, este anuncio de Apple sin duda que creará más hambre a la población de ver de qué se trata todo esto que Apple les está presentando, y el Meta Quest 3 con un costo de apenas $499 ya se ve mucho más atractivo que antes (y quizás lo ponga debajo de mi arbol de navidad este año). El trabajo de Apple ahora es refinar el Vision Pro y ofrecer algo a un precio mucho más razonable antes de que sus innovaciones sean duplicadas efectivamente por la competencia a un costo mucho menor (cosa que no será tarea fácil, puesto que estoy seguro que los costos de las partes del Vision Pro de por sí ya son bien altos, incluso para Apple que por sus altos volúmenes de compra obtiene casi siempre los mejores precios del mercado de sus suplidores). En conclusión, el Apple Vision Pro es un dispositivo tecnológicamente deslumbrante cuyo gran ancla a la hora de venderse es su precio exorbitante. Apple debió sacar también una versión “no Pro” (cosa que creo hará al mediano plazo), pero mientras tanto es una gran demostración tecnológica que resuelve muchos problemas humanos en interfaces para este tipo de entornos, y que por tanto hace un tremendo aporte al futuro de la computación personal y profesional. autor: josé elías |
22 comentarios
797,538 vistas |
Apple / OS X , Futuro Digital , Opinión / Análisis , Predicciones , Realidad Virtual , Tecnología Visual , Video-juegos |
miércoles, agosto 17, 2022
|
¿Imaginan un futuro en donde por fin no tengan que entrar una clave más en una página web o app para poder acceder? Pues ese futuro ya está aquí, y hoy les explico cómo funciona.
Lo que permite esto es una técnica que en sí existe desde hace años y se llama "criptografía de llaves públicas y privadas", sin embargo hasta recientemente esa técnica se ha utilizado para temas muy específicos de bajo nivel de los cuales la mayoría de usuarios desconoce (por ejemplo, es lo que permite que salga "el candado" que protege tu navegador de Internet cuando estás entrando tus credenciales y compras, y es lo que también permite que distintas entidades bancarias transmitan entre sí información de forma segura por el internet público). Pero desde el 2016, una de las entidades que vela por la estandarización del internet (la W3C) emitió un estándar llamado WebAuthn que por fin está siendo adoptado por las grandes empresas que tienen plataformas con miras al usuario común (como Apple, Google y Microsoft), y que permitirá que por fin nunca tengas más ni que crear, memorizar o escribir claves. Y la razón que escribo este artículo hoy es porque estamos a semanas de que Apple lance su tecnología PassKeys en iOS 16 y en macOS Ventura, que permitirá que cientos de millones de personas inicien a utilizar esta tecnología, lo que la popularizará y masificará y hará que otras plataformas como Android y Windows (que también ya ha sacado tecnologías similares) también expandan su base de usuarios con sus respectivas tecnologías libres de claves que también interoperarán por medio del estándar WebAuthn. Ok, ¿cómo funciona esto? Para entender utilicemos una analogía de cómo funcionan los sistemas tradicionales de "login" de hoy día: Hoy día cuando entras a una página web o app que solicita tu usuario y clave, en esencia lo que está ocurriendo es que la página web o app te está pidiendo que le pases la llave de un candado digital que ellos tienen almacenados en su servidor o app. Y si tu llave abre ese candado entonces eso significa que tus credenciales son válidos y te permiten entrar. Pero en el caso de WebAuthn y PassKeys, lo que sucede es que la página web o app te envía a ti tu candado, y si tu logras abrirlo para ellos entonces esa es la señal de que tus credenciales son válidos ya que tú debiste haber tenido la llave que abre el candado. Eso de paso significa que los administradores de la página web o app nunca tienen acceso a tan siquiera ver tu llave que abre el candado de seguridad, ya que la llave la mantienes tú en todo momento. Pero, ¿cómo es esto posible? Pues lo que sucede tras bastidores es realmente bastante simple: Se utiliza un par de llaves, una privada y una pública, que están relacionadas matemáticamente entre sí, en donde lo que tú cifres con la llave privada solo puede ser descifrado por la llave pública, y viceversa. La llave privada siempre permanece almacenada localmente en tu dispositivo local (digamos, tu celular como ejemplo), y la llave pública (que en este caso podemos ver más como un candado) se la das a todo el mundo que desee poder darte acceso a su página web o app. Y de la manera que funciona el mecanismo es que en el momento que visitas una página web o app por primera vez tu dispositivo le provee automáticamente tu llave pública (el "candado") junto con cualquier otra información requerida (nombre, email, etc). Esto crea tu cuenta y nota que nunca tuviste que escribir una clave. Después de ahí cuando desees entrar a tu cuenta lo que sucede es que la página web o app le pregunta a tu celular quien eres, y este le da tu usuario (digamos, tu email) en cuyo momento la página web o app responde enviándole a tu dispositivo un mensaje cifrado con tu llave pública (el candado), y lo que tu dispositivo tiene que hacer ahora es utilizar tu llave privada (que solo tienes tu) para descifrar el mensaje y que la página web o app sepa que tú eres realmente quien dices ser. Esto es posible ya que solo tu llave privada puede descifrar un mensaje cifrado con tu llave pública. Y es bueno notar que en el paso en donde la página web o app envía tu llave pública que en ese momento tu dispositivo utiliza los datos biométricos asociados a tu dispositivo (como por ejemplo tu huella digital o cara, con tecnologías como Touch ID o Face ID de Apple) para enviar el mensaje cifrado al chip de seguridad de tu celular para que este descifre el mensaje con tu llave privada. O en otras palabras, tus datos biométricos ahora se convierten en tu forma de acceder a una página web o app. Así que en la práctica para entrar por ejemplo a una página web o app el procedimiento sería el siguiente: 1. Visitas la página web o abres el app. 2. Escaneas tu huella digital o cara en el celular. 3. Y esto es todo. Entras inmediatamente al app. Pero ojo, que no es tan solo que ahora con tu huella o cara puedes entrar a una página web o app sin tu hacer nada, la otra gran ventaja de esto es que no existen claves en ningún paso que tengas que crear, almacenar o recordar. Esto es sin duda alguna la forma más transparente que existe a la fecha para que accedas a tus datos sin necesidad alguna de utilizar claves. Pero aparte de que ya no existirían claves que tengas que manejar, la otra gran ventaja de este mecanismo es que eliminarían gran parte de los riesgos de seguridad que existen en el momento que hackers malignos traten de adivinar o robarte tu clave, ya que no hay clave para robar por ningún lado. Incluso si un hacker tuviese grabando todo lo que haces en la pantalla de tu celular, o instalara uno de esos programas troyanos que monitorean tu teclado, aun así no podrán acceder a tus páginas web o app ya que el mecanismo realmente depende de que tu celular utilice tu llave digital privada para descifrar mensajes cifrados con tu llave pública, y esa operación ocurre en un área protegida de tu celular (en iPhones ocurre en el Digital Enclave, un chip que solo puede ser desbloqueado por ti y cuya firma digital almacenada no puede sacarse de ese chip incluso por medio de programación de software; y en Windows y Android existen mecanismos similares: en Windows con la tecnología TPM y en Android hay ejemplos como la tecnología Knox de Samsung). Habiendo dicho todo eso, he aquí ahora algunas respuestas a preguntas que quizás tengan sobre esta tecnología: 1. ¿Cuál es la diferencia entre esto y el usar un Password Manager (Gestionador de Claves) que utiliza mis datos biométricos? Un Gestionador de Claves con lo único que te ayuda es en almacenar tus claves en un lugar centralizado en una zona relativamente segura, y en escribir las claves por ti en páginas web y apps, pero sufren del tema de que todavía estás teniendo que depender de una clave que hay que escribir en algún formulario, y por tanto no te protege en lo absoluto de las más populares formas de ataque (como leer tu teclado, infectar una página web con malware, o simplemente adivinar tu clave de forma bruta probando millones de combinaciones una a la vez). 2. ¿Qué sucede si quiero que alguien más entre a mi cuenta con mis credenciales, no podrán hacerlo si no tienen mis datos biométricos? Para esto esos usuarios tendrían o que (1) entrar de forma tradicional con un usuario y clave, lo que no es muy seguro, o (2) imagino que en un futuro cercano será posible que desde tu celular des permiso en tiempo real a esa otra persona de forma remota para que entre (similar a como con el sistema de ScreenTime de Apple los padres podemos autorizar que nuestros hijos compren cosas por Internet desde sus propios celulares). 3. Si soy usuario de Apple o Google y quiero acceder a un servicio de otro proveedor como Microsoft, Amazon, eBay u otro ¿tengo que tener un dispositivo en esa plataforma para acceder o recrear mis datos biométricos con ellos de alguna forma? La tecnología WebAuthn es totalmente interoperable, por lo que funcionará de forma transparente entre distintas plataformas, proveedores y dispositivos. Eso significa por ejemplo que un usuario de Android que haya instalado el app iTunes de Apple en su celular podrá seguir utilizando sus credenciales de su celular Android para acceder a los servicios de subscripción de Apple sin necesidad de entrar claves. 4. ¿Qué sucede si mi dispositivo no tiene capacidades biométricas para por ejemplos leer mi huella digital o escanear mi cara en 3D? Es posible (a opción del proveedor de tu celular o laptop por ejemplo) de utilizar WebAuthn sin datos biométricos, utilizando un PIN de unos cuantos dígitos, sin embargo esta opción no es tan segura ni conveniente como la opción biométrica, aunque ciertamente es más segura y conveniente que la forma tradicional de hacer login. Mi recomendación es que opten por celulares que al menos puedan leer la huella digital, y noten que ya la nueva generación de laptops y teclados están soportando leer tus huellas digitales (como por ejemplo todas las nuevas laptops de Apple, así como sus teclados externos con Touch ID), por lo que en cuestión de 2 a 5 años esta será la norma. 5. He leído que hackers han podido sacar copias 3D de huellas digitales, ¿no comprometerá eso la seguridad de esta tecnología? Una ventaja de esta tecnología es que tu llave privada está almacenada en tu celular o laptop a mano, por lo que incluso si alguien clonara tu huella digital no les serviría de nada al menos que también tengan acceso físico a tu celular para poner la huella en el lector. 6. ¿Y qué tal de hackers que ponen fotos o estatuas de réplica de una persona para engañar el sistema biométrico de tu cara? El mismo comentario anterior de huellas digitales aplica aquí, si los hackers no tienen acceso a tu celular físicamente no pueden tener acceso a tus credenciales. Noten además que hay dos tipos de reconocimiento facial. Hay una que es utilizada por muchos celulares Android que lo que hacen simplemente es sacarle una foto a tu cara y compararla con una foto previamente tomada. Esta forma no es segura para acceder a tu celular (y recomiendo no utilizarla) ya que es fácilmente penetrable con solo mostrarle una foto de tu cara al celular (lo he hecho personalmente con amigos). La otra forma es lo que hace Apple con Face ID que es totalmente diferente: El iPhone dispara más de 30,000 puntos invisibles a tu cara con los cuales crea una máscara virtual en 3D, cuyos datos combina también con una imagen previamente tomada de tu cara en 2D y 3D, y de paso el iPhone observa tus pupilas para asegurarse de que estés vivo y atento a la pantalla (por eso es que el iPhone te solicita que veas el celular directo). Esto es muchísimo más seguro y es la forma recomendada de implementar reconocimiento facial, y razón por la cual para temas biométricos el iPhone es permitido por varias instituciones financieras para asegurar tus transacciones con tu cara, mientras que no lo permite con varios otros tipos de celulares. En el mundo Android, cuando estés en duda, opta por el momento de escribir este artículo en autenticación biométrica con tu huella digital, al menos que al leer las especificaciones técnicas de tu celular sepas y entiendas qué tipo de autenticación biométrica facial realiza. --- Actualización Febrero 2023: Apple recientemente con iOS 16.3 y macOS 13.2 permite el uso de llaves en hardware para sus dispositivos iPhones, iPad y Macs, lo que se une a la misma funcionalidad que también se puede obtener en Windows y en algunas versiones de Android. Con este tipo de llaves o "Hardware Keys" es posible asegurar aun más tu cuenta, ya que para iniciar sesión en cualquier nuevo dispositivo con tu cuenta debes conectar físicamente (en un puerto USB-A o USB-C o Lightning) o de forma inalámbrica cercana (con NFC, como en todos los iPhones recientes) una llave en forma de memoria USB que contiene tus credenciales para poder entrar. En la implementación de Apple es requerido que tengas que activar dos llaves como mínimo (y un máximo de 6) con la finalidad de que si se te pierde, avería o te roban una, tengas una segunda de repuesto para emergencias. Nota que si por alguna razón pierdes accedo a tus llaves, que Apple te permite devolver a entrar de forma manual con tu clave y PIN siempre y cuando tengas habilitada la función de Autenticación de Dos Factores (2FA, o Two-Factor Authentication), pues es la única forma que pueden asegurarse (en la medida de lo posible) que nadie te pueda hackear remotamente. autor: josé elías |
24 comentarios
829,689 vistas |
Apple / OS X , Futuro Digital , Google , Internet , Linux , Negocios , Pregunta a eliax , Software , Tecno-Seguridad , Windows / Microsoft |
jueves, diciembre 23, 2021
|
Hola amig@s lectores,
Después de más de 14 años informándoles sobre el James Webb Space Telescope (JWST por sus siglas en inglés) en artículos como este del 2007, el tiempo por fin ha llegado, y si todo sale bien el próximo sábado 25 de Diciembre 2021 (entre las 7:20am y 7:55am horario de New York) por fin se lanza al espacio, y hoy quiero escribirles sobre su historia, importancia y futuro. Al final del artículo espero tengan una mejor apreciación sobre este monumental proyecto científico y sobre por qué nunca en la historia de la humanidad la comunidad científica estará tan nerviosa como el momento en que se lance este instrumento al espacio y sus posteriores meses de establecimiento en su hogar final. La historia del JWST La ideal del JWST originó en 1989, y entre ese año y el 1994 la comunidad científica empezó a idear, pre-diseñar y debatir sobre cómo podría construirse semejante instrumento. Es bueno destacar que varias de las tecnologías necesarias para su construcción todavía ni existían ni se habían inventado. Después de esa época (que compagina con el éxito y los problemas del Telescopio Espacial Hubble) se inició una etapa de planeamiento, culminando en que para el 2002 se acuñara el nombre James Webb (eh honor al Director de la NASA que estuvo a cargo de las misiones Apollo que llevaron a la humanidad a la Luna) y se otorgara el contrato de su construcción a la empresa Northrop Grumman, que para los que no la conozcan es uno de los más grandes contratistas militares de EEUU, y esencialmente es una empresa que vive de contratos del gobierno de los EEUU, por lo que pueden estar seguros que en la decisión de elegirlos a ellos existió todo tipo de maniobras políticas tras bastidores, y que de existir una empresa privada como SpaceX en ese entonces que la historia hubiese sido diferente (en términos de costos y tiempos), pero esa es una historia para otro artículo... Mientras tanto lo importante a saber es que en ese momento se le puso un presupuesto al proyecto de Mil Millones de dólares (US$1,000MM), con una fecha de lanzamiento del telescopio para el 2010. En ese entonces también ya se hablaba de que si se disparaban los costos por imprevistos que el costo pudiese aumentar a US$3,500MM. En el 2004 inició la construcción de los masivos espejos hexagonales que serían parte distintiva de su diseño. Estos espejos, chapeados en oro puro (para aumentar su sensibilidad a la luz infrarroja) se diseñaron como un conjunto de 18 piezas hexagonales por distintos motivos. El primero es que se hacía menos complejo y costoso fabricar los enormes espejos por separado, pero la razón principal es que no existe cohete en existencia capaz de subir un espejo tan grande, por lo que se hizo un diseño en donde el espejo en forma de colmena de abeja se dobla en 3 partes para que quepa en el cohete, y después se pueda abrir en el espacio a su tamaño de operación. Es bueno notar que la precisión necesaria para que esos espejos se unan en el espacio debe ser inimaginable precisa, con márgenes de error en las millonésimas de un metro, por lo que toda una nueva tecnología de alineamiento se debió de inventar para hacer eso posible. Por la misma razón, no solo el espejo principal, sino que el telescopio completo, fue diseñado de forma tal que este se doblara como una pieza de origami (literalmente), y de desdoble ya en el espacio. Esto de por sí ya representó una complejidad enorme para el diseño del JWST. Notemos que muchos de estos diseños fueron re-pensados en el 2005 cuando se notó que el grado de complejidad iba a ser mucho superior a lo pensado, y se terminó decidiendo utilizar ese año el diseño actual. Sin embargo los cambios de diseño más el entendimiento de la envergadura del trabajo adelante necesitaron de una revisión del presupuesto y la fecha de finalización, los cuales se corrigieron a US$4,500MM y una nueva fecha de lanzamiento del 2013. El trabajo progresó por unos años, de camino topándose con grandes retos tecnológicos por resolverse, culminando esa etapa en un estudio independiente ordenado por El Congreso (de legisladores) de los EEUU en el 2010, en donde se concluyó que no solo iba a ser imposible finalizar el telescopio a tiempo, sino que su precio iba a aumentar significativamente. Al final del día se estimó una nueva fecha de poner el JWST en el espacio del 2015, y esta vez con un precio de US$6,500MM. Sin embargo poco después se hizo evidente que incluso esos nuevos estimados no eran realistas, y la NASA corrigió la cifra a US$8,800MM con una nueva fecha de lanzamiento del 2018. Después de mucho esfuerzo, el JWST fue finalizado en el 2016, pero al realizarse pruebas extensas se descubrieron todo tipo de anomalías y problemas de diseño e ingeniería, culminando esto en que se retrasara nuevamente el lanzamiento al 2019. En medio de todo esto se descubrieron todo tipo de errores humanos (que según la NASA costaron 18 meses de retraso y US$600 Millones de dólares). Y en medio de todos estos retrasos, pruebas y rediseños de último minuto llegó el Coronavirus y la pandemia del COVID-19, poniéndose una fecha tentativa de lanzamiento para el 30 de Marzo del 2021. Estos nuevos retrasos aumentaron el costo en US$800M más, llevando el costo final de construcción del JWST a US$9,600MM y aportaron un nuevo retraso con la nueva fecha siendo Octubre 2021. Sin embargo, meses antes se descubrieron problemas con el cohete Ariane 5 que lanzaría el JWST, y se retrasó nuevamente el lanzamiento para el día 18 de diciembre 2021. Mientras tanto el JWST fue transportado por el canal de Panamá en secreto (debido a su valiosa carga) a su lugar de lanzamiento y pruebas finales en el complejo ELA-3 de la empresa Arianespace, cerca de Kourou, en Guayana Francesa. Sin embargo el JWST no se lanzaría el día 18, ya que días antes una correa que mantenía asegurado el telescopio en el laboratorio de pruebas se soltó inesperadamente lo que provocó una serie de vibraciones en todo el telescopio, y por tanto se tuvo que pausar para revisar que todo estuviese funcionando bien después de ese incidente. La nueva fecha fue Diciembre 22. Sin embargo el día 22 tampoco se iba a poder lanzar al descubrirse un fallo con uno de los cables del sistema de telecomunicaciones del telescopio. Y entonces se mudó la fecha al día 24. Y el día 24 se pospuso una vez más para el día 25 debido a que no se pronosticaban situaciones atmosféricas favorables para el despegue. Así que si todo sale bien, este sábado 25 de diciembre 2021 despega el JWST (si ocurre otro retraso o eventualidad actualizaré este artículo). Riesgos del JWST Y he aquí en donde entran los nervios. El JWST es un instrumento que ha sido soñado durante más de 3 décadas, y su lanzamiento se ha retraso ya por más de 2 décadas, y el tiempo, dinero, diseño, recursos humanos, carreras, investigación, tecnología, sudor y sueños que ha sido invertido en su construcción no puede subestimarse bajo ninguna posible variable de medida. Y dado su gran costo y complejidad no existe un respaldo. O todo sale bien con su despegue y puesto en funcionamiento o se perdió todo ese trabajo (y sueño); sería uno de los días más tristes de la humanidad. Y noten que a diferencia del Telescopio Espacial Hubble que orbita a apenas 547km sobre la Tierra, el JWST estará a 1.5 millones de km de distancia de nosotros, en un lugar en donde se haría imposible en la práctica ir a repararlo (como fue el caso con el Hubble que sufrió de problemas con su espejo principal así como otros problemas que científicos y astronautas pudieron solucionar). Y es bueno notar que el nivel de complejidad del JWST es muchísimo mayor que el Hubble, por lo que muchas cosas puedan salir mal hasta que este empiece a funcionar en ese punto lejano. Según la NASA, hay una lista de más de 1,000 (mil) cosas que tienen que funcionar a la perfección para que el JWST llegue a su destino y empiece a trabajar. Entre las cosas que pueden salir mal se destacan el lanzamiento mismo, la etapa de "descascaro" en donde el JWST será expuesto al espacio por primera vez, la etapa de descoplamiento de la nave Ariane 5, la etapa de impulso hacia su hogar (el llamado Punto Lagrange L2), le etapa de desplegar sus paneles solares, la etapa de despegarse de la base impulsora, la etapa de desplegar y acoplar los elementos de su espejo, la etapa de desplegar su protector solar (una inmensa tela super avanzada más fina que un cabello humano que le dará sombra ante el Sol, y que permitirá que el JWST funcione a una temperatura de unos 50 grados Kelvin que equivale a unos -223° C o -370° F, y notar que del otro lado de la tela la temperatura será de unos 383 grados Kelvin o unos 110° C o 230° F), sus antenas de comunicación (si no podemos hablar con el JWST no podremos darle instrucciones ni ver las imágenes que genere), etc etc etc. Eso sin mencionar sus sistemas de cómputos, almacenamiento, propulsión, guía astronómica, software, y las decenas de miles de piezas que componen todo eso. O en otras palabras, este despegue y subsecuente llegada a su destino final serán los primeros minutos y subsecuentes meses de mas nervios y ansiedad en toda la historia científica de la Tierra. Literalmente hay miles de cosas que pudiesen fallar, y todas deben funcionar a la perfección, y en el primer intento. No hay respaldos ni segundos intentos. Y por eso parte del costo del JWST, pues tenemos que asegurarnos que todo funcione sin margen de error. Si yo tuviese que decir cuáles son las posibilidades de que algo surja mal con el JWST en su lanzamiento y puesta en marcha, diría (preocupadamente) que no es un porcentaje bajo, rondando quizás en el 3 al 5% que es bastante alto para este tipo de misiones. Y si se preguntan, ¿por qué enviar el JWST tan lejos? Pues como siempre, hay una razón científica para ello. A donde enviaremos el JWST es lo que se llama el Lagrange Point L2, que es un lugar en el espacio en donde la fuerza gravitatoria de la Tierra y la del Sol se cancelan mutuamente, por lo que cualquier objeto en ese lugar podrá permanecer tranquilo sin necesidad (o muy poca necesidad) de utilizar combustible (aun así el JWST lleva un poco de combustible para pequeñas maniobras de calibración y ajustes), y es importante además ese lugar ya que al quedar a 1.5 millones de km de la Tierra (y la Luna) no tendrá interferencia de nuestras señales u objetos cercanos de gran tamaño, lo que es esencial para el tipo de astronomía que estará haciendo. ¿Cuándo empezaría a funcionar el JWST? Antes de que el JWST envíe su primera imagen, varias cosas deben suceder. Lo primero es que debe lanzarse y llegar a su destino final en el punto L2, sin embargo ese no es un viaje corto. Le tardará al JWST aproximadamente un mes de viaje llegar a su destino, y varias semanas para estar totalmente desplegado físicamente en su forma final. Después se iniciarán toda una serie de pruebas de todo tipo que incluyen pruebas mecánicas, de consistencia, de vibraciones, de telecomunicaciones, computación, almacenamiento, orientación, data, algoritmos, y sobre todo de sus instrumentos científicos. Esta es una etapa crucial y extensa, que contando todo desde el día de su lanzamiento tomará unos 6 meses. Y solo después de este tiempo y que se haya verificado que todo esté funcionando correctamente se le dará la instrucción del JWST de capturar su primera imagen oficial. El día que esa imagen llegue a la Tierra será un gran día para celebrar en la ciencia y para toda la humanidad. ¿Qué va a estudiar el JWST? Si todo sale bien, la misión principal inicial del JWST será nada más ni nada menos que observar directamente a nuestro universo en el pasado cuando este tenía apenas entre 100 y 250 millones de años (recordemos que el Big Bang se estima ocurrió hace unos 13800 millones de años), por lo que estaríamos observando nuestro universo cuando este era literalmente un bebé. Eso significa que veremos las primeras estrellas mientras se formaban y también veríamos las primeras galaxias y posibles agujeros negros. Esto nos dará información invaluable para confirmar varias teorías científicas y de paso sin duda contribuirá a una nueva serie de descubrimientos, algunos de los cuales cuya naturaleza aun quizás no podemos ni imaginar. En paralelo a esa misión principal, los instrumentos del JWST también nos darán invaluables nuevos datos sobre exoplanetas (planetas en otros sistemas solares), la evolución de las galaxias, información adicional sobre objetos exóticos como agujeros negros, estrellas de neutrones y cuásares, y quizás nos de pistas para resolver temas pendientes como el concepto de la Energía Oscura que aparenta ser responsable de la expansión del universo, así como la posibilidad de averiguar qué es la tal llamada Materia Oscura. Y (literalmente) miles de temas más en su lista. Como nota final noten un par de curiosidades sobre la capacidad del JWST (que compartí con ustedes en mis redes sociales recientemente): El espejo del JWST puede distinguir los detalles de una moneda colocada a 40km de distancia, así como puede ver estrellas 10 mil millones de veces más tenues que verlas a simple vista. - Para ver el lanzamiento en vivo sintonicen en NASA TV en este enlace en YouTube. - Los dejo ahora con un video oficial que les ilustra cuál será la travesía del JWST desde el momento del despegue a su inicio de funcionamiento. El video es en inglés pero la parte visual les dará una buena idea de todo lo que ocurrirá sin necesidad de palabras. Que lo disfruten. - Actualización 1: Si desean ver una versión doblada al español del video anterior, la pueden ver acá, cortesía de mi amigo Manuel Grullón (@manuelg296) quien una vez fue Presidente de Astrodom (la Sociedad Astronómica Dominicana) y es el actual Coordinador Nacional de divulgación astronómica para República Dominicana ante la UAI (Unión Astronómica Internacional) Actualización 2: ¡El lanzamiento fue todo un éxito! Ahora a seguir con las próximas etapas arriesgadas de la misión que incluye un mes de viaje hasta su destino final y todos los pasos enumerados en el artículo. Hoy fue un gran día para la humanidad. Actualización 3: ¡Hoy 8 de enero 2022 el JWST finalizó su etapa de ensamblaje final! Los próximos pasos son empezar a alinear los bloques del espejo principal para formar un solo espejo compuesto perfecto y empezar a calibrar y probar todos los instrumentos a bordo. Todo este proceso tomará unos 5 meses más, pero ya lo más peligroso de la misión ha pasado lo que es un minumental alivio. Actualización 4: Esta semana que inicia Marzo la NASA anunció que se acaba de finalizar exitosamente la alineación tanto de los espejos como de la cámara principal, y además anunció que las primeras imágenes de pruebas de calibración superan las expectativas. Todavía se estima que para Julio de este año 2022 entrará en operación oficialmente. Actualización 5: El 11 y 12 de Julio la NASA hizo públicas las primeras imágenes del JWST, y he acá una de las más preciosas de ellas. autor: josé elías |
6 comentarios
1,043,930 vistas |
Cámaras Digitales , Ciencia , Curiosidades , Educación , Pregunta a eliax , Tecnología Espacial , Tecnología Visual , Videos |
martes, diciembre 21, 2021
|
Hola amig@s lectores,
Antes de finalizar el año quiero hacer una breve reseña de las cosas tecnológicas más relevantes de este año 2021, desde sorpresas hasta cosas que cambiarán nuestras vidas en el futuro. Así que sin mucho más que decir, y sin ningún orden en particular, he aquí mi lista: 1. Iniciativa del Año: El Metaverso, por Meta (previamente llamada Facebook) El Metaverso no ha sido inventado por nadie en particular, pero Mark Zuckerberg se apropió del término y hasta renombró a su empresa Meta para demostrar lo serio que está con este tema. Y aunque falta ver si Meta será el principal o uno de los principales jugadores en todo esto del Metaverso (piensen de ello como el inicio a un mundo similar al de Matrix), lo cierto es que hay que darles crédito por no solo popularizar el término en la cultura popular, sino por animar al resto de a industria a tomar el concepto totalmente en serio. 2. Tendencia del año: NFT Si hay algo que junto con el Metaverso será parte fundamental de nuestro futuro tecnológico, es el concepto de los NFT (o Tókens No-Fungibles), que son el equivalente digital a tu ser propietario de cosas en el mundo fuera del ciberespacio. Lean más sobre NFTs aquí. 3. Palabra del año: NFT Y en segundo lugar "Metaverso". 4. Cripto-plataforma del año: Ethereum Aunque Bitcoin fue lo que indudablemente puso el tema de las criptomonedas en el mapa, en realidad ha sido Ethereum con su plataforma y su Ether que han estado revolucionando el espacio de las cripto-transacciones, permitiendo no solo pagar con monedas digitales sino proveyendo herramientas para crear toda una nueva generación de aplicaciones desentralizadas (como los NFTs). Y si les interesa el cripto-trading, acá un artículo al respecto. 5. Visor de Realidad Virtual del Año: Oculus Quest 2 Aunque este visor salió el año pasado, continúa al día de hoy siendo la mejor introducción al Metaverso que puedan comprar, y lo mejor de todo es que dependiendo dónde y cuándo compren su precio ronda entre los US$250 y US$300 dólares, que en mi opinión es una mejor compra que una consola tradicional de video-juegos que cuesta mucho más y no ofrece ni cerca del grado de inmersión que este equipo ofrece. Esta es una de las compras tecnológicas que más recomiendo a cualquiera. 6. Innovación Cinematográfica del Año: Empate entre (1) la cámara DJI Ronin 4D con tecnología flotante y LIDAR, y (2) la tecnología Cinema ProRes en el iPhone 13 Pro. La cámara DJI Ronin 4D es una cámara totalmente diferente a todas las que vinieron antes. No solo tiene un diseño en donde el sensor y el lente flotan delante de la cámara (para hacer imágenes super estables) sino que además incluye tecnología LIDAR para enfocar, lo que significa que la cámara crea una representación tridimensional de su entorno por medio de rayos láser para saber la distancia exacta entre el lente y el sujeto a grabar, permitiendo enfocar de manera super precisa no solo de día sino incluso en casi total oscuridad (la tecnología LIDAR es utilizada también por algunos fabricantes de automóviles robóticos para entender su entorno). Y en cuanto a la tecnología Cinema ProRes, de alguna manera Apple logró meter dentro del espacio de un celular (en este caso la versión Pro del iPhone 13) un encodificador del estándar de codificación de cine, ProRes, lo que le permite grabar video en crudo con una calidad que hasta ahora era solo posible en cámaras que costaban decenas de miles de dólares. Y de paso le agregaron un modo de desenfoque computacional a las imágenes para darle un "look" más cinemático a los videos. Si tienen un iPhone 13 Pro noten que esto deben activarlo en Configuración, y que si no saben lo que hacen no recomiendo lo utilicen ya que este tipo de videos genera archivos varias veces más grandes que videos normales. Esto está diseñado específicamente para profesionales que necesitan la más alta calidad posible (que tampoco será evidente hasta que sepan como manipular los parámetros del video generado para cambiar su exposición y otros factores). 7. Cámara Computacional del Año: Google Pixel 6 Hay dos maneras principales de crear imágenes fotográficas: De forma óptica (es decir, lo que sea que entre al sensor por el lente) y de forma computacional (es decir, se toman datos del lente y después se mejoran con computación), y un ejemplo de fotografía computación es la funcionalidad que popularizó Apple que permite desenfocar el fondo de una foto después de esta haber sido tomada. Sin embargo ha sido Google quien ha llevado esto a otro nivel con su nuevo celular Pixel 6, que en mi opinión es el mejor valor por tu dinero en el mundo Android en estos momentos. 8. Tecnología Revolucionaria del Año: Los procesadores M1 Pro/Max de Apple Cada cierta cantidad de años una tecnología surge que estremece los cimientos de su industria ocasionando grandes cambios, y la serie de procesadores M1 Pro/Max acaban de hacer eso. Estos procesadores no solo han creado un abismo en la relación precio/rendimiento entre Macs y las tradicionales PCs con Windows, sino que han creado toda una revolución que ahora están forzando a Microsoft y los demás participantes del mundo Windows a adoptar procesadores con tecnología ARM. Solo para que tengan una idea, una laptop MacBook Pro 2021 con el procesador M1 Max puede manipular en tiempo real hasta 7 fuentes de video 8K en crudo y HDR, lo que significa el manipular 56 veces más flujos de datos en tiempo real que un video 4K tradicional. Lograr eso en una PC tradicional requiere en la actualidad de comprar tarjetas de video especializadas que cuestan por sobre los US$5,000 dólares, y aun así no pueden manejar 7 flujos de 8K HDR simultáneos. Y todo eso lo hace un solo chip dentro de una MacBook Pro ahora. Y esto no es solo mercadeo. Todas las pruebas que ya se han hecho públicas por profesionales creativos han confirmado que una MacBook Pro M1 ya es entre 3 y 15 veces más rápida que una PC super potente costando varias veces más, utilizando el mismo programa en ambas máquinas (como Photoshop, Lightroom, etc). Y como si fuera poco, Apple logra todo eso con un super bajo consumo energético que permite que todo ese poder se pueda utilizar en una laptop corriendo en batería todo el día, sin conectar la corriente eléctrica a una pared, mientras que en el mundo Windows hacer lo mismo por lo general significa PCs de escritorio con power supplies halando al menos 250 vatios continuos como mínimo. Esto está provocando una ola de adopción y migración hacia Macs como nunca antes vista en la historia de Apple, y acelerando la llegada de una nueva generación de procesadores ARM para Windows en el 2022. Aprende más sobre la tecnología de chips propietarios de Apple aquí. 9. Sistema de Computación Personal del Año: Apple MacBookPro M1 Pro/Max Debido a las razones enumeradas en el punto anterior, en estos momentos no hay nada ni siquiera remotamente cercano a lo que puedes obtener en términos de rendimiento por tu dinero al comprar una MacBook Pro 2021 con procesador M1 Pro o M1 Max. 10. Innovación Cotidiana del Año: AirTags de Apple Los AirTags son objetos del tamaño de monedas grandes que dejas en tu automóvil, mochila, mascota, cartera o cualquier cosa que se te pueda perder o te puedan robar, y que te permite localizarlo rápidamente. Los AirTags es bueno notar que no tienen función de GPS con ellos, sino que dependen de que cerca de ellos existan personas con un iPhone, ya que Apple ha creado una red global en donde todos los iPhones del mundo se comunican de forma segura con los AirTags, y reportan su ubicación. Así que por ejemplo si te roban tu automóvil, y dejaste un AirTag adentro, es bastante posible que en algún momento algún desconocido que tenga un iPhone estará cerca de tu vehículo, en cuyo caso el AirTag se comunicará contigo y sabrás donde está tu auto (y claro está, que como todo en la vida, esto tiene sus usos buenos y malos como ya ha sido reportado de bandidos pegando AirTags a autos que desean robar para saber la ubicación de su propietario). 11. Sorpresa visual del año: La cámara Nikon Z9. Nikon salió literalmente de la nada con una cámara mirrorless (sin espejo) que ha no solo dejado atónitos a todos sino que dejado hasta mal parada a la competencia. Esta cámara aparte de poder disparar fotos a 20fps en RAW, 30fps en JPG, también tiene un modo especial para capturar 120 fotos por segundo en menor resolución. Esto la hace en una cámara ultra potente para deportes y acción. La cámara además tiene 45 Megapixeles con un impresionante rango dinámico lo que la hace también excelente para fotografía de bodas, retratos artísticos, y moda. Como si fuera poco graba video crudo con resolución 8K lo que de paso la hace una máquina ultra potente para el cine profesional. Una actualización gratuita próxima le permitirá grabar video12-bit 8K N-Raw y 4K ProRes RAW internamente, con 8K/60fps. Algo inaudito. Como si fuera poco, tiene un ultra-rápido sistema de enfoque automático 3D que se asegura que tus fotos salgan nítidas sin importar cuánto se mueva el sujeto que estás capturando en fotos o video. Y noten que aunque la cámara cuesta US$5,500 dólares, que eso es más barato que las cámaras de gama alta de Canon (la EOS R3) y Sony (la A1). 12. Renacimiento del año: Nikon Gracias a su cámara Z9, la empresa se acaba de levantar como el ave Fenix de sus cenizas. La empresa no ha podido fabricar suficientes para satisfacer la demanda. 13. Herramienta de Desarrollo de Software del Año: Microsoft Visual Studio Code No confundir con su otro producto llamado simplemente "Visual Studio", esta es la versión open-source que se ha tornado indispensable para toda una nueva generación de desarrolladores de software, gracias a su expandabilidad por medio de plug-ins que expanden su funcionalidad a esencialmente cualquier área imaginable de la computación. 14. Plataforma de Desarrollo Multi-Plataforma del Año: Google Flutter Si planean arrancar desde cero un App que deba compilar tanto para Android como iPhone, iPad, y ahora hasta Web, Windows, Linux y Mac, no creo exista mejor opción en el mercado que Flutter de Google. No solo genera Apps multi-plataforma sino que de muy alto rendimiento, y la más reciente versión ahora incluye librerías para video-juegos 2D de alto rendimiento. 15. Plataforma de Streaming del Año: Disney+ Disney+ no tiene ni cerca del contenido de Netflix, sin embargo se ha enfocado en algunos nichos que ha hecho que despegue más rápido que Speedy Gonzalez. Parte de su truco ha sido capitalizar sus franquicias de Marvel, creando series originales que solo se pueden ver por esa vía, como la excelente Loki. 16. Tecnología Científica del Año: El James Webb Space Telescope Si todo sale bien este telescopio se lanzará este próximo 25 de Diciembre 2021, y durará 1 mes para llegar a su destino a 1.5 millones de km de distance a un punto calmado y equilibrado grabitacionalmente, en donde desplegará una gran sombrilla espacial para bloquear la luz solar y poder observar el universo en tranquilidad como ningún otro instrumento en la historia de la humanidad. Su misión principal será la de observar los primeros 100 a 250 millones del años después del Big Bang (es decir, cuando nuestro universo era un bebé) para así entender mejor nuestros orígenes. Sin embargo la ciencia que hará será mucho más extensa que eso, tocando todos los campos de la astronomía y astrofísica a nuestro alcance, desde agujeros negros y posible materia oscura hasta la evolución de galaxias y el estudio de objetos exóticos como los cuásares. El lanzamiento de este instrumento es algo que hemos estado esperando desde el 1989 (a un costo de casi 10 mil millones de dólares) cuando se propuso por primera vez, por lo que esta será la misión con más nervios jamás lanzada al espacio por la humanidad. 17. Avance de Salud del Año: AlphaFold por DeepMind DeepMind es una inteligencia artificial de Google, y uno de los proyectos en que participó se llama AlphaFold, que ha permitido en tiempo record predecir como se doblan de forma tridimensional todo tipo de moléculas, específicamente proteínas de ADN. Esto es un paso monumental que en pocos años acelerará el descubrimiento de medicinas y tratamientos para todo tipo de enfermedades. 18. Viaje Espacial del Año: William Shatner (“Captain Kirk”) en la nave de Blue Origin Jeff Bezos (fundador de Amazon y Blue Origin) ganó muchos puntos de mercadeo este año al anunciar que enviaría al espacio a William Shatner, mejor conocido como el Capitán Kirk en la serie clásica de Star Trek ("Viaje a las Estrellas"), logrando con eso un sueño de muchos geeks de ver a este actor subir al espacio en la realidad. 19. Empresa Espacial del Año: SpaceX ¿Qué más podemos decir de esta empresa? Sencillamente no tiene igual. No solo hizo decenas de pruebas y lanzamientos (de cargo a naves espaciales exploratorias, de viajes a la Estación Espacial Internacional, y subiendo todo tipo de satélites), sino que está bien encaminada a cumplir su misión de llevar la humanidad al planeta Marte, como lo prometió su fundador Elon Musk. 20. Nave Espacial del Año: StarShip de SpaceX ¿Podrían imaginar un edificio rascacielos no solo despegando sino que volviendo a aterrizar de espalda nuevamente? Pues eso es exactamente lo que hace la nave StarShip que en el 2021 SpaceX logró demostrar que podrá cumplir su misión no solo de subir grandes cantidades de cargo al espacio, sino de llevarnos al planeta Marte. 21. Tecnología Espacial del Año: StarLink de SpaceX ¿Internet satelital de alta velocidad y baja latencia en cualquier parte del mundo y a un costo razonable? Envíenme el contrato rápidamente... Elon Musk es un genio certificado. 22. Empresa Automovilística del Año: Tesla Tesla casi por su propia cuenta ha sido la principal responsable a nivel mundial de popularizar los vehículos eléctricos, y no vemos fin a su buena racha. Cuando salga a la venta el Cybertruck será todo un fenómeno de ventas y de cultura popular. Una vez más, Elon Musk a la cabeza. 23. Personaje del Año: Elon Musk No hay sorpresas aquí. Este año ni siquiera hubo competencia remota para un segundo lugar a ponderar. Este hombre se está consagrando como el Leonardo DaVinci de nuestros tiempos, y todavía le falta mucho por vivir. autor: josé elías |
4 comentarios
1,098,485 vistas |
Apple / OS X , Cámaras Digitales , Celulares / Móviles , Ciencia , Cine / DVD / Blu-ray , Google , Negocios , Opinión / Análisis , Realidad Virtual , Redes Sociales , Salud , Software , Tecnología Espacial , Tecnología Visual , Vehículos , Video-juegos , Windows / Microsoft |
sábado, octubre 30, 2021
|
Hola amig@s lectores, Este artículo me lo han solicitado por años, e incluso es el tema que más me han solicitado para escribir, y la verdad es que hasta hoy me había negado a escribirlo de forma concienzuda. Verán, que por motivos que no detallaré aquí, que soy una persona que no le gusta apostar al azar (salvo uno que otro día que juego la lotería cuando viajo a EEUU o gasto US$20 dólares cuando visitó Las Vegas). Son muchas las personas que he visto en mi vida que a causa de las apuestas, el vicio de los juegos y de temas como proyectos piramidales y otras estafas, lo han perdido todo. Y la verdad es que no me gustaría sentirme jamás que he sido responsable de destrozar una familia o una sola vida a causa de mis consejos. Sin embargo, el mundo ha llegado a un punto el día de hoy, debido al auge de las criptomonedas, que millones de personas están apostando a ellas y lamentablemente muchas están perdiendo los ahorros de su vida en ello, sea por inexperiencia, ingenuidad o sencillamente por seguir consejos e invertir en personas sin escrúpulos o que sencillamente no saben lo que hacen. A tal fin, este artículo servirá tanto como una guía como una lista de advertencias básicas para que no caigan en ciertas trampas. Así que sin nada más que decir al respecto, iniciemos… El tema de hoy será el crypto-trading, que no es más que el acto de comprar y vender (o quizás sería más apropiado decir, apostar) al mercado de las criptomonedas, como lo es bitcoin (que por mucho es la más conocida en la actualidad en la cultura popular). Y es bueno mencionar que el crypto-trading en muchos sentidos es bastante similar al simple trading en la bolsa de valores tradicional, pero con algunas diferencias… En el trading tradicional por lo general utilizas un intermediario, pero en el crypto-trading no solo no necesitas intermediarios si no deseas, sino que incluso puedes permanecer anónimo en tus transacciones, lo que significa que si así lo deseas puedes incluso mantenerte al margen del radar del ministerio que regule el fisco en tu país (aunque aclaro, en países como los EEUU está prohibido el no reportar acciones en criptomonedas por temas de impuestos, así que es importante que estés al tanto de las leyes que regulan el mundo de las criptomonedas en tu nación si quieres evitar violentar alguna ley fiscal). Sin embargo, aunque puedes definitivamente hacer tus propias transacciones directamente con otros que deseen comprar tus criptomonedas (o comprar las de ellos), lo cierto es que en la mayoría de los casos los usuarios que particularmente están iniciándose en este mundo optan por elegir alguna plataforma que funciona similar a un mercado de bolsa de valores, en donde unos ponen un precio al cual están dispuesto a vender una criptomoneda y otros están dispuestos (o no) a pagar ese precio. A tal fin entre las plataformas más populares en la actualidad para Cryptotrading están Binance, Coinbase, Kraken, Crypto, Robinhood, y otras. Es bueno aclarar que estas plataformas funcionan por medio de Wallets o Carteras Digitales, y que existen distintos tipos de Wallets, desde unas que alojan tus criptomonedas enteramente en la nube, hasta otras que lo alojan en tu PC o celular. Sin embargo las carteras más seguras alojan tus criptomonedas en equipos de hardware especial que tienen formas que van desde memorias USB hasta tarjetas de crédito que accedes por Bluetooth y que vienen con la particularidad de que generalmente están totalmente desconectados de cualquier red que pueda acceder a su preciado contenido. Y hablando de estas carteras he acá la primera gran advertencia de la cual debes estar al tanto y entender bien: Las criptomonedas son esencialmente una serie de tokens o códigos con los cuales transmites esas monedas a otras personas, y si alguien llega a tener acceso a tu cartera y transfiere ese dinero a cualquier otra cuenta (por lo general anónima), hay un 99.9999% de que vas a perder ese dinero y no tendrás a quien reclamarle en lo absoluto. Y eso se debe a la naturaleza de las criptomonedas que fueron creadas específicamente para evitar la centralización corporativa y el control de gobiernos centrales (aunque ya países como China han creado criptomonedas que sí están bajo control del estado), lo que significa que por un lado tienes la ventaja de que nadie tiene que saber sobre el dinero que tienes o donde lo tienes o incluso a quien le transfieres o quien te transfiere a ti, pero eso también significa (y esta parte rara vez te la dicen los que utilizan carnada para que inviertas en estos mercados) que si alguien algún día llega a tener acceso a tu cartera, que eso es lo mismo que tomar todo el dinero que tengas en el banco y prenderle fuego. Sucede, que al las criptomonedas no ser centralizadas, que por lo general eso significa que *tu* eres el responsable de salvaguardar tus criptomonedas, y por eso es que es tan importante el tomar medidas conscientes sobre cómo proteger esas carteras. En máquinas tradicionales con Windows por ejemplo, o en celulares Android (salvo si tienen versiones especializadas y actualizadas como la tecnología Knox de Samsung y su Samsung Blockchain Keystore), en donde a diario son atacados por miles de malware, el riesgo es altamente alto para el usuario común que le da “ok” a todo lo que ve en Internet o que no mantiene actualizada su máquina o celular constantemente, o que sencillamente descarga programas pirateados, ya que los hackers criminales que se encargan de robar criptomonedas por lo general utilizan debilidades en esos sistemas operativos y en aplicaciones descargadas para monitorear la actividad en tu equipo y observar sus claves y posteriormente blanquear tu cartera antes de que te des cuenta. Y esto es un fenómeno que ocurre con muchísima más frecuencia de lo que se imaginan (o de lo que muchos quieren admitir por temor a pasar vergüenza o admitir que no se llevaron de las advertencias de los expertos). A tal fin, si planean realmente adentrarse en este mercado, lo primero que tienen que asegurarse es de tener un equipo seguro, de mantenerlo actualizado constantemente, de no instalar programas que no sean originales, y de mantener un respaldo de sus datos en caso de que la máquina o celular se pierda, sea robada o se averíe, ya que en esos casos si no tienes respaldo también perderás todo (al menos que utilices una cartera que haga respaldo en la nube). Similarmente, si utilizas una cartera en la nube, debes asegurarte de tener extrema precaución y utilizar una clave difícil de adivinar, así como evitar compartir esa clave con nadie, y de paso debes también evitar escribir esa clave en máquinas de otras personas (que bien pudiesen estar infectadas con programas que monitorean los teclados para robar tus credenciales). De forma similar, si optas por el sistema más seguro de todos, que es el de carteras en hardware externo, debes también tomar medidas ya que si ese dispositivo externo se te pierde o avería o se rompe, perderás para siempre todas las criptomonedas almacenadas en este. Y por último, en muchos casos estas carteras te dan un “token de acceso” y te dicen en letras bien grandes que lo anotes a mano y pongas en un lugar seguro, y lo dicen bastante en serio, pues si pierdes ese token (esencialmente una clave de acceso) nunca jamás en tu vida podrás tener acceso a tus criptomonedas, las perderás para siempre, ya que ese token es lo que quita el candado digital de las criptomonedas almacenadas en la nube o en tu celular. Si pierdes el token ni los mismos creadores de la cartera podrán ayudarte, perdiste ese dinero para siempre. Una buena práctica para aquellos que decidan invertir grandes cantidades de dinero en estro es utilizar varias carteras, dejando la mayor cantidad de dinero en carteras de hardware en distintos lugares diferentes para evitar que si alguien algún día tiene acceso a una de esas carteras que solo pierdas lo que contiene esa cartera y no todo lo demás. He leído incluso de usuarios que viajan físicamente a distintos lugares del mundo y depositan sus carteras en bancos externos o las esconden en lugares específicos para evitar así casos extremos como cierre de bancos locales, incendios en sus hogares, revuelos contra el gobierno, etc. Ahora bien, ¿por qué con tantos peligros la gente está viendo a las criptomonedas como la nueva fiebre del oro? Pues la respuesta sencilla es por novedad y volatilidad. Con novedad me refiero a que el mercado, aun con tanta actividad a escala global, está en su infancia, y millones de personas están invirtiendo en estas criptomonedas sin incluso entender bien qué hacen, quién las genera, cómo se generan, si tendrán futuro, o incluso si tiene sentido invertir en ellas. La gente invierte en ellas porque todos los demás lo están haciendo. Así que a diario vemos cientos de miles de personas invirtiendo en criptomonedas que poco después se devalúan y pierden todo lo invertido, beneficiando a los que vendieron sus monedas inicialmente. Pero, ¿y por qué la gente continúa invirtiendo? Pues por el otro factor que mencioné: Volatilidad. El mercado de las criptomonedas es tan volátil en la actualidad (es decir, los precios varían tanto de día a día) que eso ha abierto una brecha increíblemente grande a la especulación. Así como tradicionalmente existe un mercado que especula en que el precio del dólar sube o baje, y compra o vende acorde, así mismo lo que está inyectando capital en la economía del cryptotrading es la especulación. La moda ahora es esencialmente tomar una moneda que sea popular y que varíe de precio constantemente (el ejemplo clásico es el bitcoin) y comprar cuando baja de precio con el propósito de vender cuando el precio suba al otro día o a los pocos días después y lograr un margen de ganancia. Obviamente que así como el dinero no crece en árboles es bueno entender que los expertos en cryptotrading que hacen dinero con estas tácticas hacen dinero a consta de otros pierden. Por cada persona que en el mundo de las criptomonedas está haciendo dinero hay otros que lo están perdiendo, por lo que el mundo del cryptotrading realmente es un mundo sobre quién es más vivo que quien, quién tiene más conocimiento que quien, quién tiene más suerte que quien, y quién se puede aprovechar mejor de quien. Y sobre eso último les quiero dar mi segunda advertencia: Si alguien se les acerca y les dice que si inviertes tu dinero en criptomonedas que te pueden “garantizar” un porcentaje X de ganancia cada X tiempo, sal corriendo, aléjate lo más posible de esa persona, bloquea su contacto, y date tres golpes en el pecho y da gracias a todos los cielos de que evitaste caer en una trampa. Quien sea que te prometa algo así cae en solo una de estas dos categorías: Es alguien que definitivamente te quiere engañar y te está vendiendo sueños. Es alguien que no tiene ganas de engañarte pero ha tenido suerte en sus transacciones y cree que ya sabe lo que está haciendo hasta que le llegue la mala racha (generalmente con tu dinero) Ahora bien, ¿existen cryptotraders serios? Pues por supuesto que sí, aquellos que te dirán todas las advertencias que les estoy dando yo aquí, que te explicarán los riesgos, y que tratarán de que no tomes un préstamo con hipoteca de tu casa para invertirlo todo de una vez (y no, no me pregunten si les puedo ayudar a invertir, no me dedico a eso). Y acá ahora les quiero dar la tercera advertencia: Es casi seguro que se toparán en algún momento con alguien que les dirá algo similar a “Invertí en criptomoneda X y me gané tantos miles de dólares”, cosa que te dejará pensando en “¡yo también quiero ser como tú y ganarme esos miles de dólares!”, y he ahí el gran error. La mayoría de esos que te dicen eso confunden el que el precio de sus acciones haya subido un día con el haber ganado dinero, sin embargo tu no ganas un solo centavo hasta el día que vendas tus criptomonedas y conviertas ese dinero en efectivo (léase, dólares o alguna moneda tradicional, al menos hasta el día en que las criptomonedas en sí se puedan parar sobre sus propios hombros). Esa misma persona que te dice que hoy “ganó” US$10,000 dólares muy posiblemente al otro día “perdió” US$12,000 dólares. En el mundo de las finanzas el único dinero seguro es dinero el liquidéz, depositado en efectivo en alguna cuenta o en tus propias manos, no se olviden de eso. Y esto es algo que pasa con las bolsas de valores tradicionales también: Alguien invierte US$100 dólares en alguna empresa, las acciones suben de precio y ahora sus acciones valen US$300, y la persona le anuncia a todos sus amigos que “acaba de ganarse US$200 dólares”, pero al otro día se desploman las acciones (o incluso quiebra la empresa) y las acciones bajan a US$5 dólares, y la persona vende sus acciones a US$5 antes de perderlo todo quedándose con una pérdida de US$95 dólares, sin embargo pueden estar seguros que esta persona no va a correr a decirle a sus amigos de su fracaso. La gente por lo general solo mercadea los triunfos, y eso que pasa con la bolsa de valores tradicional ocurre tal cual con el cryptotrading, por lo que no crean todas esas historias de “¡hice tantos miles de dólares en un día!”, cuando la realidad es que en la mayoría de casos los que invierten en criptomonedas pierden dinero si no saben lo que están haciendo. Pero, ¿cómo hacer dinero en el mercado con cryptotrading? Pues hay tres formas: Con trabajo arduo todo el tiempo, comprando y vendiendo sin parar y durmiendo pocas horas al día. Con mucho conocimiento de los mercados de las criptomonedas y entendiendo realmente lo que se mueve, cuáles son las tendencias, etc. Con suerte. En el primer punto, la idea es aparentemente sencilla: Observas los mercados de las criptomonedas que tienes en tu mira objetivo, y compras cuando bajan los precios y vendes cuando suban de precio. El problema aquí es que en la práctica debes estar atento constantemente al movimiento de los mercados, y si no sabes cuándo salirte definitivamente es posible que termines con una criptomoneda que al final no tendrá valor alguno y terminarás perdiendo todo lo invertido en esa criptomoneda. Con el segundo punto prepárate a invertir *mucho* tiempo leyendo, analizando, buscando noticias, viendo la opinión de expertos, descartando exageraciones, detectando los líderes del mercado, etc, y en base a eso haciendo tus inversiones. Si le dedicas tiempo y realmente entiendes el mercado, quizás puedas detectar alguna criptomoneda que crecerán, y otras que tendrán mucha volatilidad y tomar ventaja de ellas. Así quizás inviertas en una que otra para el largo plazo. Y en cuanto al tercer punto, el depender de la suerte, solo digamos que no recomiendo esa ruta al menos que tengas dinero para quemar (en cuyo caso quizás no tengas incentivo para invertir en criptomonedas…). Ahora bien, ¿en cuáles criptomonedas invertir? Pues esa es una tarea para ustedes, sin embargo si la quieren jugar a lo seguro por ahora lo más “seguro” (y eso es un término muy relativo en este mercado) es la venerable bitcoin. Y si quieren apostar a algo que podría ser bastante grande en el futuro, quizás quieran estudiar a Ethereum, que es la segunda criptomoneda en importancia y la que para mi ofrece un mejor valor a largo plazo, ya que aparte de ser una criptomoneda es también toda una plataforma programable que está permitiendo toda una nueva generación de aplicaciones (como los NFT de los cuales les hablé recientemente). En el otro extremo hay toda una familia de criptomonedas que realmente nadie sabe si tendrán futuro o no pero que son extremadamente volátil y con ellas pueden jugar el juego de comprar y vender y cruzar los dedos para no estar ahí invirtiendo en ellas el día que posiblemente se desplomen. Entre ellas están Dogecoin (popularizada por varios tweets de Elon Musk), Shiba, Litecoin, y otras. Personalmente mi mayor preocupación actual (y tomen esto como una “predicción eliax”) es el hecho de que están surgiendo decenas de nuevas criptomonedas continuamente, y el sentido común nos dice que será insostenible y que eventualmente habrá que “menear el árbol” para que solo caigan las frutas maduras (es decir, hasta que solo queden las criptomonedas principales, en el orden de 5 a 10 como mucho). Creo que tarde o temprano llegaremos a una gran burbuja en donde la gran mayoría de esas criptomonedas explotarán (y de mala forma) y se perderá mucho dinero cuando eso ocurra, a nivel tal que podría afectar la economía no solo del núcleo familiar, sino de todo el planeta. Incluso no lo llamaría una burbuja, más bien podría ser una supernova económica. ¿Y cuándo ocurrirá esa explosión? Pues en el momento que un suficiente porcentaje de la población entienda qué son realmente las criptomonedas, y qué uso y valor real tienen más allá de una simple apuesta (por eso me gusta tanto Ethereum, pues fue creada con miras a ser toda una plataforma financiera descentralizada con aplicaciones prácticas en la vida real). Habiendo dicho todo eso, y sabiendo que diga lo que sea que yo diga muchos continuarán y entrarán con los dos pies a este mercado, he aquí unas cuantas recomendaciones que les hago para cuando menos tratar de reducir los riesgos e incrementar las posibilidades de éxito: 1. No inviertan todo su dinero en criptomonedas. Por más tentador que suenen las historias de los que se hicieron millonarios haciendo eso de la noche a la mañana después de obtener préstamos y vender todo lo que tenían para invertirlo en criptomonedas, esas son historias de una en un millón. Sean prudentes. 2. Si van a invertir en criptomonedas no lo inviertan todo en criptomonedas de poca circulación, o en criptomonedas poco populares. Ciertamente si “la pegan” en una de estas comprando super barato y después vendiendo super caro eso sería genial, pero esa es la excepción (por mucho) y no la regla, por lo que procedan con precaución. 3. Traten de balancear su portafolio invirtiendo una parte en monedas relativamente estables (como bitcoin y Ethereum), y otra parte en criptomonedas que crean tendrán futuro o que tienen alta volatilidad (si es que están dispuestos a invertir el tiempo en comprar y vender constantemente). 4. Muchas monedas menos populares (o nuevas) cuestan literalmente milésimas de un dólar cada una. En estas podrías invertir una pequeña cantidad de dinero ya que si despegan es posible que una inversión de US$10 dólares termine valiendo hasta US$10,000 unos meses o años después si esta por alguna razón explota positivamente en valor (como ocurrió con Dogecoin, antes de desplomarse su valor). Sin embargo hagan estas pequeñas inversiones a sabiendas que lo más probable es que perderán esos US$10 dólares. Piensen de estas pequeñas inversiones como una lotería a modo de hobby. Si la pegas bien, sino, solo perdiste US$10. 5. Antes de hacer transacciones infórmense sobre los costos de transacción (si utilizan intermediarios). No haces nada comprando y vendiendo pequeñas cantidades si los costos operativos son mayores a las potenciales ganancias del día. 6. Hablen con amigos que ya estén invirtiendo en criptomonedas ya que ellos les asesorarán sobre carteras digitales y sobre cuáles mercados de compra y venta de criptomonedas funcionan en sus respectivos países (no todas las carteras funcionan en todos los países y muchas requieren identificación en forma de documentos de identidad oficiales). 7. Hay cientos de tutoriales, guías, preguntas frecuentes, grupos de Facebook, páginas de Instagram, portales de noticias, cuentas de Twitter, grupos de Whatsapp y Telegram, videos de YouTube, e innumerables recursos sobre estos temas. Google es el mejor amigo que tendrán para encontrar esos recursos, así como otros amigos en sus comunidades. Esto no es algo con lo que se harán ricos sin esfuerzo, como cualquier otra cosa deben invertir tiempo y recursos para ver los beneficios. Quien les diga que esto es “fácil” es alguien que o no sabe de lo que habla o está exagerando para animarlos a entrar a este mundo sin estar bien preparados. 8. Reitero, por sobre todas las cosas, procedan con precaución. Esto es sin duda un mundo emocionante y estamos viviendo unos tiempos en donde abundan muchas oportunidades, pero a la misma vez los riesgos y aquellos que quieren aprovecharse de ustedes, abundan. Ejerzan moderación. Y si les gustó este artículo compártanlo con aquellas otras Mentes Curiosas de este mundo... autor: josé elías |
10 comentarios
1,087,267 vistas |
Educación , Futuro Digital , Negocios , Pregunta a eliax , Software , Tecno-Seguridad |
domingo, julio 4, 2021
|
Hola amig@s lectores,
Microsoft está en un renacimiento. Hace 7 años (en el 2014) la empresa tomó una decisión bastante importante al elegir a Satya Nadella como su nuevo CEO, y ese mismo día escribí un artículo con mi opinión al respecto (que recomiendo leer para poner en contexto lo que escribo hoy), expresando lo que creía debería hacer ese hombre si quería sacar a Microsoft del agujero negro que la había metido Steve Ballmer, y curiosamente Nadella se enfocó en precisamente las cosas que sugerí debía enfocarse, poniendo atención al sector empresarial (miren el éxito de Azure en la nube), eliminando cientos de productos (lo cual hizo), hacer Windows gratis (que lo acaba de hacer en el anuncio de Windows 11 hace unos días), y concentrarse también en el mercado de consumidores (que es su nueva lanza y de la cual les voy a hablar hoy). Si se leyeron el artículo que sugerí en el párrafo anterior ya entenderán que Microsoft ha estado pasando por unos momentos muy transformadores en la última década, y si hay algo que puedo decir para resumir los últimos 7 años de Microsoft bajo la tutela de Nadella, es que se ha ganado una calificación de “A” en ejecución. Estoy seguro que muchos hubiesen querido ver el recién anunciado Windows 11 varios años antes, y ver el Microsoft que tenemos hoy (que incluso ha abrazado la cultura de Linux bajo su organización, algo que hubiese sido inaudito bajo Ballmer o Bill Gates) mucho tiempo atrás, pero hay que entender también la titánica labor que tenía Nadella bajo su liderazgo: Primero tenía que desmontar toda la burocracia impuesta por Ballmer dentro de la organización, enemistarse de cientos de Project Managers, ganarse la confianza de los desarrolladores internos, y mientras hacía malabarismo con esas tareas de paso trazar el rumbo futuro de Microsoft, eficientizar la empresa, y desarrollar una nueva generación de productos y apostar a la Nube, los video-juegos, y de vuelta al sector de consumidores. Para mi a Nadella no le están dando el debido crédito de lo que ha logrado en tan relativo poco tiempo. Literalmente se ha ganado mi admiración. Sin embargo, y desafortunadamente para Microsoft, la vida fuera de sus paredes corporativas continuó, y empresas como Google, Amazon y Apple se adelantaron en todas las áreas que Microsoft tenía debilidades, o que desantendíó. Hoy día Amazon AWS es el líder indiscutible en soluciones en la nube (aunque gracias a Nadella, Microsoft Azure ya es un número 2 creciendo vertiginosamente), Google Docs le ha comido gran parte del mercado a Microsoft Office, GMail Corporativo le ha comido gran parte del negocio a Microsoft Exchange y Outlook, Internet Explorer fue aplastado por Google Chrome, MySQL ha estado comiendo sin piedad el mercado de Microsoft SQL Server, Android y iOS completamente desterraron a Windows Mobile, y la Web junto a el iPad y macOS han estado haciendo a Windows (en un momento, la principal fuente de ingresos de Microsoft) en algo cada vez menos relevante. En esencia, Microsoft, que una vez era el epicentro del mundo tecnológico, cada vez está siendo desterrada más y más a los brazos exteriores de la galaxia tecnológica terrestre. Sin embargo, se ha hecho obvio que Nadella ha estado viendo hacia dónde soplan los vientos y esto lo ha hecho notar con varias decisiones que están ya tomando efecto exitosamente en el mercado. La empresa por ejemplo ha puesto un renovado interés en la versión online de Office 365, ha tomado un gran interés en Microsoft Teams (al punto tal que vendrá integrado por defecto en Windows 11), le da dado su corazón por completo a la plataforma de juegos Xbox (innovando con cosas como el GamePass), ha hecho de Azure su punto de lanza para el sector corporativo y de desarrolladores de software grandes y pequeños, se ha abierto a colaborar con soluciones de Linux, y ahora con Windows 11 está haciendo algo que muchos aun no han notado pero que sin duda es la razón principal de la existencia de Windows 11: Un ataque frontal al iPad, y por tanto a Apple. ¿Y por qué me refiero al iPad y no al iPhone o macOS en las Macs? Pues porque se ha hecho evidente que el futuro de la computación personal fuera de celulares inteligentes son las tabletas, o más específicamente, dispositivos compactos de fácil uso, gestionados mayoritariamente a través de tiendas de aplicaciones, con larga duración de batería, y con interfaces amigables y simples (y con la opción de convertirse en PCs o laptops por medio de teclados externos, monitores, ratones, etc). Apple no planea dejar por ahora el negocio de las Macs (y al contrario, ha apostado el doble a ese segmento con sus Macs M1 y próximas sucesoras), sin embargo a la empresa se la ha hecho evidente que en el sector de consumidores el futuro son dispositivos más parecidos en funcionalidad a un iPad que a una Mac, razón por la cual si son usuarios tanto de iPads como Macs ya habrán notado que las últimas tres versiones de macOS cada vez se acercan más a parecerse un interfaz de iPad, y estamos llegando a un punto tal en donde desde el punto del vista del consumidor final el iPadOS y el macOS serán casi la misma cosa. Es por eso que ya el iPad (particularmente el iPad Pro con el teclado y trackpad y soporte para monitores externos y ratones) ya están empezando a hacer funciones tradicionalmente de las Macs, e incluso ya hay cosas en las iPads en lo que son enormemente mejores (por ejemplo, el programa de dibujo Procreate con el Apple Pencil, que ya ha desterrado casi por completo a Photoshop en varios nichos). Y no duden que poco a poco veremos cada vez más y más aplicaciones “Pro” salir en simultáneo para iPad y Mac, y en particular gracias a que ya Apple ha entregado a desarrolladores una serie de herramientas que les permite hacer aplicaciones que funcionan en ambos ambientes. Así que habiendo dicho eso, podemos decir que el principal nuevo enemigo de Microsoft en el ámbito de computación personal (fuera de celulares) no es la Mac ni el iPhone, sino que el iPad. El iPad ha dominado tanto que incluso las tabletas Android son casi irrelevantes en ese mercado. La mayoría de tabletas Android (o Kindle de Amazon) que se venden se compran por su bajo costo y para labores usualmente específicas (para que los niños jueguen, o para leer, o para ver videos, y el ocasional uso de Google Drive o navegar el internet), y muy rara vez para labores profesionales o de uso continuo con aplicaciones equivalentes a una laptop. Y la razón es la calidad de las Apps. Desde el día 1 Apple diferenció el iPad del iPhone y creó una forma diferente de crear Apps optimizadas para el tamaño mayor de pantallas. Sin embargo en el mundo Android eso ha sido un reto ya que la mayoría de Apps en tabletas Android no son más que versiones ampliadas de la misma App en el celular, y la realidad es que son desastrosas en la mayoría de los casos, particularmente al compararlas con sus equivalentes en iPad. Sin embargo, es ahí donde entra Microsoft con Windows 11… Para mi el cambio más importante que ha dado Windows con la nueva versión es que por fin aparenta que será optimizado para tabletas (y sí, estoy súper consciente y he utilizado las Surface de Microsoft), y al Windows 11 soportar la arquitectura ARM para procesadores de eficiente consumo energético y menor costo, y al Microsoft hacer ahora mucho más fácil colocar aplicaciones en la mejorada tienda que estrenará con Windows 11 (y de paso permitiendo que se cobren productos y servicios por vías alternativas, a diferencia de Apple y Google que requieren que los pagos se realicen a través de sus propias pasarelas de pago), creo que esto hará por fin que una nueva generación de tabletas con Windows 11 salga al mercado, con precios bastante competitivos, ofreciendo la primera real alternativa al iPad en el mercado. Recordemos que hoy día muchos prefieren pagar entre 2 y 5 veces más por un iPad que una tableta Android debido a que las aplicaciones que utilizan y la experiencia de usuario que obtienen con el iPad son marcadamente superior a una tableta Android, pero si un usuario puede obtener aplicaciones de alta calidad, con elementos visuales optimizados realmente para tabletas, y en equipos de relativo bajo costo, creo que eso podría ser una fórmula ganadora para aflojar un poco el control de Apple en ese espacio. Y lo mejor de todo (para Microsoft) es que diseñó a Windows 11 con un núcleo que se puede adaptar a distintos factores de uso, por lo que no me sorprendería en un futuro ver un dispositivo “Microsoft TV Stick” similar al Amazon Fire TV, o interfaces para automóviles y casas inteligentes con tecnología de Microsoft. Y más intrigante aun, es que si Microsoft logra ejecutar bien y logra capturar una buena parte del mercado de tabletas, que podría quizás considerar volver entrar al mercado de celulares inteligentes con una nueva versión de celulares basados en futuras versiones de Windows, aunque algo me dice que por ahora eso es solo eso, una intrigante posibilidad y no el enfoque inicial de Microsoft con Windows 11. Otra cosa que aplaudo de Microsoft es haber tomado la sabia decisión de ofrecer a Windows 11 como una actualización gratuita para usuarios existentes de Windows 10 (un práctica que Apple lleva desde hace muchos años exitosamente), para así acelerar la adopción de su nueva estrategia, pues el nuevo Microsoft no es una empresa para ganar dinero vendiendo licencias de Windows sino vendiendo servicios (locales y en la nube), subscripciones, y obteniendo comisiones de ventas desde sus tiendas. Y finalizo diciendo algo que repito constantemente en mis artículos, comentarios y charlas: Estos tipos de desarrollos no solo son emocionantes sino que beneficiosos para todos, pues la competencia al final del día es una herramienta más para mejorar la vida de los consumidores. autor: josé elías |
8 comentarios
1,244,384 vistas |
Apple / OS X , Celulares / Móviles , Dispositivos , Google , Linux , Negocios , Opinión / Análisis , Predicciones , Software , Windows / Microsoft |
lunes, junio 14, 2021
|
Hola amig@s lectores,
Hoy quiero compartir con ustedes un tema que al menos a mi me ha hecho pensar bastante a través de los años, y trata sobre estudiar cuáles serían la limitantes en potenciales dioses/deidades en cuanto a su alcance de poder y conocimiento con respecto a las leyes de la física como la conocemos. Así que arranquemos hoy (síganme la corriente, todo se conecta al final) haciendo un paréntesis para hablar del concepto de “medir algo”, como podría ser medir la velocidad de un objeto en movimiento. Y sobre ese tema empecemos diciendo que en nuestra vida cotidiana medir a qué velocidad va un automóvil aparenta ser algo trivial y a lo que no hay que darle mucho pensamiento. Sin embargo, la realidad dista mucho de nuestro instinto… Y es contraituitivo ya que medir la velocidad de algo curiosamente afecta su velocidad. Y para entender esto, imaginemos un ejemplo en donde estamos totalmente a ciegas, en el medio del espacio, y que queremos medir la velocidad de una nave espacial que nos pasará por el lado. Hay varias formas de medir la velocidad de la nave (con respecto a nosotros), una de ellas siendo el poner algún tipo de banderita o meta en dos lugares distintos, y medir el tiempo que transcurrió entre la nave tumbar la primera banderita y tumbar la segunda, lo que nos daría su velocidad. Otra forma podría ser dispararle a la nave ondas de algún tipo (digamos, un rayo láser) en varios puntos de su trayecto, y medir el rebote de esas ondas hasta nuestro detector (similar a como funcionan los radares de velocidad en las autopistas). Sin embargo, sin importar la forma que sea que tratemos de medir esa velocidad, lo esencial a entender es que la única forma de medir algo (y eso por extensión incluye el concepto de “ver” algo) es directamente interactuando con lo que se quiere medir, sea haciendo que el objeto choque contra algo, o que le disparemos algo que rebote desde este. Y cuando entendemos eso, entendemos también que al hacer chocar el objeto o al dispararle algo al objeto, que literalmente estamos variando (aunque sea ultra-minúsculamente) su velocidad y/o trayectoria, por lo que el simple hecho de tratar de medir su velocidad exacta implica que variaremos esa velocidad por un monto desconocido (en exactitud) para nosotros. O en otras palabras, es imposible saber el estado exacto de algo, ya que el mismísimo acto de medir altera el resultado. Y si entendieron eso, felicidades, porque lo crean o no esta es una de las grandes conclusiones de la física del Siglo 20 con respecto al campo de la Mecánica Cuántica y ustedes acaban de entenderlo sin necesidad de complejas ecuaciones matemáticas. Hagamos ahora otro paréntesis y hablemos ahora de qué tan rápido podemos enterarnos de sucesos que ocurren en nuestro alrededor (y una vez más, síganme la corriente)… Imaginen que tienen un reinado galáctico en nuestra galaxia La Vía Láctea, la cual a propósito mide de ancho unos cien mil años luz (es decir, que si disparamos un rayo láser en un extremo de la galaxia este tardaría 100,000 años en cruzar la galaxia de lado a lado, viajando a unos 300,000 kilómetros por segundo que es la velocidad de la luz), así que asumamos que riges tu imperio desde el centro de la galaxia. Eso significa que al estar en su mismo centro, que las noticias de lo que ocurre en los lados exteriores de la galaxia te llegaría en aproximadamente unos cincuenta mil años (asumiendo que te comunicas a la velocidad de la luz). Ahora imaginemos que alguien te dice que en un planeta lejano en el borde de la galaxia llamado Tierra acaban de surgir unas criaturas llamados “Humanos” y que estos acaban de inventar el fuego. Sin embargo, dado que esa información tarda unos 50,000 años en llegarte, de ahí a que envíes un emisario a investigar lo que sucede en la Tierra, y que éste llegue allá para ver la situación, pasarán 50,000 años más, y lo más probable es que cuando éste llegue a la Tierra se tope ahora no con seres humanos en taparrabos creando fuego, sino con una sociedad relativamente avanzada que ya ha visitado todos los planetas de su Sistema Solar y que ya domina tecnologías como el Internet, los rayos láser, energía nuclear, tecnología de comunicación interplanetaria, etc. Ese emisario te envía ahora esa información, pero sucede que tomará unos 50,000 años más para que esa información te llegue. Y como imaginarán, las noticias que te llegarán son muy diferentes a las noticias originales. Pero peor aún, dado que han pasado unos 50,000 años más, para cuando te llegue la noticia es posible que esos Humanos ya o ni existan, o tengan ya tiempo explorando otras estrellas cercanas, e incluso quizás ya no se vean como los humanos de carne y hueso del Siglo 21, sino que serán unas criaturas cibernéticas o virtuales en el siglo 521 (de las cuales no sabes nada de cómo son, ya que para saberlo tendrías que volver a viajar 50,000 años más para averiguarlo y 50,000 años más para regresar la información). En conclusión, ser un Emperador Galáctico debe ser un trabajo bastante frustrante, ya que para cuando te llega información hace rato que esa información es irrelevante y obsoleta para tomar decisiones, debido a las distancias. Y no solo eso, si desearías no solo saber información de tu galaxia, sino de otras lejanas para conquistarlas, tu trabajo se haría peor aún ya que existen miles de billones de otras galaxias sin explorar, y el tiempo de respuesta para obtener información sobre ellas se extendería al orden de incluso los miles de millones de años. Y si entendieron este tema pues felicidades nuevamente porque ya acaban de aprender un poco sobre la Relatividad de Einstein y sus efectos sobre los límites que la velocidad de la luz impone en la comunicación de información. Y regresando a nuestro artículo original, ¿qué tiene esto que ver con dioses? Pues no solo bastante, sino que todo. Sucede que según las creencias de la mayoría de religiones, existen dioses que no solo son omniscientes (es decir, que lo saben todo), sino que son omnipotentes (que lo pueden hacer todo), pero esta sencilla realidad que les acabo de describir aparenta ir totalmente en contra de la existencia de ese tipo de dioses (pero ojo, que les hablaré más adelante sobre cómo sí es posible tener dioses que lo saben todo y lo pueden hacer todo, por lo que no dejen de leer aun si esto afecta alguna creencia o sensibilidad o les suena ilógico). ¿Y por qué va esto en contra de las concepciones tradicionales de dioses? Pues por el simple hecho de que un Dios no podría jamás saber en qué estado está nada, ya que el solo hecho de tratar de “leer” el universo lo estaría cambiando. Y no solo eso, el hecho de que exista una inmensidad del cosmos con límites de velocidad de información, también nos dice que existen límites para que estos dioses puedan no solo enterarse de lo que ocurre en el Universo, sino mucho menos actuar sobre esas ocurrencias remotas. Ahora bien, unos dirán que “Dios está por encima de todo eso, y no podemos asumir que se rige por las mismas reglas que este universo”, lo que creo es un argumento que independientemente sea válido o no, merece estudio, y de eso es que vamos a hablar a continuación… Sin embargo antes de continuar creo prudente hacer mención que independientemente del “plano” en que podrían existir seres hipotéticos con super-poderes sobre la naturaleza de nuestro universo, que creo lógico asumir que tales seres tendrían que de todas formas regirse por ciertas reglas y patrones, y el hecho de que existan reglas (incluso si son reglas que no pudiésemos comprender o estudiar) implica que en sus mentes debe existir algún cambio de estado (como por ejemplo, para poder tomar decisiones), y en donde sea que exista un cambio de estado por simple lógica podemos deducir que debe existir una serie de pasos por la que sus estados mentales pasan, y el hecho de que existan pasos nos dice también que debe tomar algún tipo de tiempo para que esos pasos se propaguen en su mente, y que incluso si la velocidad de propagación de esos estados fuese infinitamente mayor que nuestro límite de la velocidad de la luz, lo cierto es que debe haber un límite, y si existe un límite entonces debe haber un límite también al conocimiento y la velocidad con la cual se puede actuar. Habiendo hecho esa observación, quiero dejarles saber que sí existe una posibilidad (habilitada por la tecnología) de tener un Dios que pueda saber todo lo que ocurre en un universo, y para eso recurro a un ejemplo que he utilizado antes en artículos, charlas y videos: El una-vez-popular juego de Los Sims de Electronic Arts. Los Sims es un juego en donde simulas a una familia, que ves en tu pantalla haciendo sus quehaceres habituales que van desde ir a trabajar hasta bailar, y desde ir a hacer sus necesidades fisiológicas hasta tener bebés y cuidar de ellos. Lo interesante de ese juego es que en realidad es una simulación (de ahí su nombre, “Los SIMulados”), y que ocurre dentro de un ordenador (sea una PC, tableta, celular, consola de video-juegos o una máquina en la nube de Internet) por lo que desde el punto de vista de nosotros los jugadores ese universo de Los Sims realmente no existe de forma tangible en nuestro mundo físico, sino que existe exclusivamente de forma virtual como una simulación. Ahora bien, asumamos que tenemos una versión super avanzada de Los Sims, tan avanzada que cada personaje dentro del juego tiene un nivel de Inteligencia Artificial tal que son conscientes de su existencia, y que ellos realmente creen que existe el universo en donde habitan, e incluso ellos jurarían que perciben ese universo en toda su gloria tridimensional (aunque nosotros fuera de la simulación sabemos que ese mundo no es más que incontables bits binarios de unos y ceros corriendo como señales eléctricas en un microprocesador, y que lo que ellos perciben como tridimensional es una ilusión). Entonces, para este escenario, nosotros podríamos considerarnos dioses, y los simulados serían los Humanos. Esos humanos incluso medirían la velocidad de la luz en su universo simulado e incluso harían teorías sobre su existencia y procedencia (y quizás, hasta escriban artículos como este que estás leyendo). En este escenario entonces, el programador que inventó el juego de Los Sims podría pasar por Dios y en cualquier momento pausar el juego y analizar todas y cada una de las variables de este para determinar en cualquier momento todo lo que ocurre en el juego (como por ejemplo, en donde estaban ubicados todos los personajes, lo que estaban haciendo, el color de sus casas, la velocidad de sus vehículos, etc). En esencia convirtiéndose en un ser omnisciente, que lo sabe todo. Similarmente este programador podría en cualquier momento matar un personaje, hacer que aparezcan o desaparezcan objetos, y en esencia hacer cosas que para las leyes de la física de ese mundo de Los Sims se catalogarían como verdaderos “milagros” ya que desafían las leyes matemáticas que ellos dedujeron, en esencia convirtiéndose el programador también en un ser omnipotente, que lo puede todo. Ahora bien, cualquiera que haya leído estos últimos párrafos diría “¡todo esto es clara lógica de que podrían existir dioses!”, pero no nos adelantemos aun… Aquí entran en juego un par de cosas. La primera es, que un juego como Los Sims es bastante sencillo, con unos cuantos personajes en la memoria de una máquina, pero cuando hablamos de un universo completo tendríamos que estar hablando no de 10 o 20 Sims, sino que de trillones de trillones de trillones de seres, sin ni siquiera hablar aún de los quintillones de sextillones de septillones de átomos y partículas subatómicas que componen un universo como el nuestro, por lo que si un ser quisiera “pausar el universo” para saber su estado exacto en ese punto del tiempo, le tomaría un tiempo increíblemente largo para saber toda esa información, y más aún, le tomaría un cerebro al menos del mismo tamaño que todos los átomos del universo simulado para poder almacenar toda esa información y procesarla, y sin mencionar espacio adicional para poder hacer optillones de decillones de zetallones de cálculos para saber qué hacer con toda esa información, y todo eso solo para saber el estado de un microsegundo pausado de la simulación, de los miles de millones de años de su existencia. O en otras palabras, hablamos de un ser cuyo tamaño y alcance nuestra imaginación realmente no podría empezar a entender. Y la pregunta es, ¿podría existir un ser así? La respuesta la dejo a juicio de ustedes. Ahora bien, el segundo tema para mi es aún más interesante ya que podemos llegar a una clara gran conclusión al respecto: Si realmente este Ser Supremo puede pausar y analizar nuestra simulación y de alguna forma poder saber todo lo que ocurre en nuestro universo, el simple hecho de que esta sea una simulación la hace necesariamente determinista (lógicamente debe serlo para poder ser analizada con 100% de precisión) y eso nos lleva a la obvia conclusión de que entonces todo ese universo es determinista al 100%, y por tanto todas sus leyes físicas también lo son, y por tanto todos los seres que habitan ese universo también actúan de forma determinista por obvia extensión. ¿Y qué significa eso? Esto significa que en un universo en donde exista una deidad superior que sea omnisciente, que por pura deducción lógica el universo que este comanda debe ser totalmente determinista, lo que automáticamente elimina el concepto del libre albedrío, ya que todo ser viviente estaría siguiendo en todo momento un patrón de reglas totalmente predeterminadas, y eso significa que incluso cuando matara a alguien o cuando comiera una manzana prohibida que ese ser no estaría actuando bajo su propio juicio sino que lo estaría haciendo de forma robótica, siguiendo una receta de pasos (producto de la programación de la misma deidad), aun sienta la sensación de que está tomando acciones por su cuenta. Esto entonces implicaría que en tal escenario, sería ridículo pensar que tal deidad que rige el universo pueda castigar a alguien por algo que esa persona hizo, ya que lo que hizo la persona nunca fue hecho por voluntad propia sino que siguiendo un patrón predeterminado necesario para que la deidad sepa lo que hizo. O en otras palabras, todo el bien y el mal del universo sería un producto directo de las reglas físicas con las cuales la deidad dote a ese universo. Los lectores más técnicos podrán decir entonces “quizás esa deidad introduce aleatoriedad en el universo”, pero al hacer eso la deidad automáticamente perdería su capacidad de predecir lo que va a ocurrir, que es otro de los poderes que vienen por defecto sobre un ser que supuestamente es omnisciente. Similarmente, uno podría también decir “pero quizás esta deidad trata los seres conscientes de su existencia de forma diferente a los demás elementos físicos del universo, y les introduce un ‘alma’ que actúa en un plano diferente al del universo en que existen esos humanos, para así permitirles libre albedrío”, pero aquí una vez más, tenemos evidencia de que este no puede ser el caso, como explico a continuación… Sucede que sabemos de miles de casos anuales en la literatura médica de personas que sufren averías en sus cerebros por causas de accidentes, y muchas de estas personas al sucederles estos accidentes cambian por completo su personalidad, o pierden ciertas habilidades cognitivas, o se modifican en formas impredecibles. Si realmente la mente humana habitara un plano fuera de lo físico, la personalidad de estas personas no pudiese haberse modificado en lo absoluto ya que un accidente de automóvil en este simple universo para nada deberían afectar al plano “superior” externo de nuestra existencia. O en otras palabras, el simple hecho de que estas personas sufran trastornos en sus mentes es evidencia clara y contundente de que no existe un alma fuera de nuestro mundo físico que rige sus vidas. Esto significa entonces que estamos ante una encrucijada bastante simple en su pronunciamiento pero bastante impactante en sus repercusiones, pues la encrucijada dice que tenemos que elegir entre en cual tipo de universo nos encontramos: 1. Si estamos bajo un universo controlado por una deidad eso nos dice que entonces no tenemos libre albedrío y que no importa lo que hagamos ya que todo lo que hagamos (desde amar hasta matar) ya está predeterminado. 2. Y por otro lado esta encrucijada nos dice que si estamos en un universo aleatorio y evolutivo que entonces nuestras acciones tienen peso y que somos responsables de nuestras vidas y que ninguna deidad puede tener conocimiento ni control de nuestras acciones. Y la gran pregunta de mi hacia ustedes es, ¿en cuál de estos universos creen que se encuentran? Leer el resto de este artículo... autor: josé elías |
39 comentarios
1,238,702 vistas |
Ciencia , Curiosidades , Educación , Opinión / Análisis , Pregunta a eliax , Psicología , Realidad Virtual |
domingo, marzo 14, 2021
|
Hola amig@s lectores,
Hace unos días una obra de arte se vendió en US$69 Millones de dólares en la prestigiosa casa de subastas Christie’s, pero lo interesante de esa venta no fue el precio, sino el hecho de que lo que se vendió fue una obra de arte digital, de la cual cualquiera puede obtener una copia 100% exacta pixel-por-pixel y tenerla en su celular, tableta, laptop o incluso impresa. Así que viene la pregunta, ¿por qué alguien pagaría tanto dinero por algo tan fácilmente reproducible (a diferencia de por ejemplo un cuadro de Picasso en donde solo tú tienes “el original”)? Pues bienvenidos al nuevo mundo de los NFTs... Una nueva revolución tecnológica en el tema de la propiedad intelectual y la sociedad en general. Pero iniciemos con lo básico. NFT es un acrónimo en inglés que significa “Non-Fungible Token”, y ya de por sí resulta curiosa la definición. La palabra “fungible” es de uso muy infrecuente en español (e inglés), y en esencia se refiere a algo que se puede reemplazar por algo de lo mismo. Un ejemplo es una moneda de 1 peso. Si la intercambias por otra moneda de 1 peso continúas teniendo un peso. Sin embargo, si lo que tienes es (por ejemplo) una pintura de Picasso, no la puedes cambiar por otra pintura de Picasso y terminar con lo mismo, ya que son irremplazables, o no-fungibles. Así que en el mundo de los NFT no-fungible significa que el Token que obtienes (y que avala que eres el propietario) no es genérico y reemplazable, sino que es único y solo existe uno, similar a como existe una sola pintura en particular de Picasso sin otras copias exactas o que puedan intercambiarse. Y para continuar tenemos que hacer un breve paréntesis y explicar que los NFTs están ligados intrínsecamente a la misma tecnología que hace posible las criptomonedas, una tecnología llamada Blockchain (“Cadena de Bloques”). O en otras palabras, la misma tecnología que permite la creación y uso de algo como los bitcoins, es la que se utiliza en los NFTs. ¿Y qué es un Blockchain? En esencia es una técnica que permite agrupar una secuencia de datos en el tiempo de forma tal que matemáticamente es virtualmente imposible modificar cualquier elemento de la cadena para falsificarlo, removerlo o modificarlo, algo que se logra con una herramienta matemática llamada un “hash”, que no es más que una función uni-direccional en donde un bloque de datos puede generar un código (piensen de ello como una clave, pero pública) pero de ese código no se puede volver atrás para obtener los datos desde donde surgió (no se preocupen si no entienden bien esto, no es necesario para entender el tema de hoy). Así que con un Blockchain por ejemplo sería posible decir algo como “Hoy lunes Fulanito de Tal compró US$10 dólares en bitcoins”, y al otro día decir “Y hoy martes transfirió US$2 de esos bitcoins a Fulanita de Tal”, y así sucesivamente en transacciones posteriores, con la gran salvedad que aunque Fulanito tenga acceso total a su base de datos de Blockchain y trate de engañar al sistema borrando la transacción del martes, que no podrá hacerlo por más que intente, debido a que por su naturaleza los Blockchains funcionan de forma distribuida por lo que miles (o millones) de otras personas tienen también una copia de esas transacciones, por lo que Fulanito tendría que no solo hackear la base de datos de todo el planeta Tierra que aloje ese Blockchain (o al menos, la mitad de ellas más una), sino además reconstruir matemáticamente todos los hashes de esas transacciones desde el momento que él quiere hacer trampa hasta el día de hoy (algo que les aseguro no es trivial hacer, y se los dice alguien que entiende bien este tema de los hash, criptografía, etc). Habiendo dicho todo eso, hagamos una aclaración final: En el mundo de los Blockchains hay dos grandes tipos de transacciones que pueden ocurrir, (1) transacciones monetarias o de criptomonedas como son los bitcoins, o (2) transacciones sobre evidencias de que algo ocurrió, o como se les llama en la jerga de la industria, criptotokes, o simplemente Tokens (que en el caso de los NFTs ocurren por ahora en la plataforma Ethereum). De esos Tokens es que estamos hablando cuando nos referimos a los NFTs, y ejemplos de estos son documentos notarizados, títulos de propiedad, actas de nacimiento, pasaportes, etc. En el contexto de los NFT, por Token nos referimos entonces explícitamente a una evidencia digital de que algo te pertenece a ti. Y aquí es bueno hacer una curiosa observación: Mientras que las criptomonedas se basan en algo que es fungible (pues estas se consumen con su uso) y de uso anónimo (en la red bitcoin por ejemplo, nadie en teoría sabe en qué gastas tu dinero ni en dónde ni con quien), en el mundo de los criptotokens es todo lo contrario, en donde la idea es saber quien es el dueño de qué (por lo que es no-anónimo) y de paso es no-fungible (ya que no puedes “gastar” un contrato por más que le des uso). Así que regresando del paréntesis, vamos ahora armados con esa información a describir qué es un NFT, y por qué alguien pagó US$69M por una pintura digital... Un NFT es esencialmente una evidencia digital de que tú eres el propietario de algo, pero ojo, un NFT no necesariamente te da derechos de propiedad de la obra intelectual original, aunque es una opción. Una analogía es una pintura de Salvador Dalí. Este en vida hizo varias serigrafías (copias de alta calidad) de sus obras que firmaba con su propia mano de forma individual. Así que por ejemplo Dalí pudo haber hecho 100 copias en serigrafía de su obra “La Persistencia de la Memoria”, y firmado cada una de ellas a mano con una numeración del 1 al 100. Aunque estas no eran la obra original, hoy día valdrían mucho dinero ya que estarían firmadas por el mismo Dalí. Es un producto escaso y limitado que naturalmente incrementa el valor del artículo en cuestión. Similarmente, puedes hacer un NFT de una novela que acabas de escribir, y hacer 10 copias “especiales” de ellas en formato NFT que creas y vendes a través de un portal como opensea.io. Los que compren esas 10 copias saben que tienen una versión exclusiva que nadie más tiene, y que de paso tiene el nombre de ellos asociados a la obra para la eternidad en el Blockchain. Y no solo eso, sino que si tienes una de esas 10 copias, esa copia tiene un valor volátil basado en el mercado, y puedes traspasar ese NFT a otra persona vendiéndosela, y al hacerlo, esa transacción queda registrada en el Blockchain de manera irrefutable, y se tiene un histórico en todo momento sobre quien es el propietario de ese NFT. Y claro está, que (siguiendo la analogía con Dalí), quizás quieras vender el cuadro original junto con los derechos de su explotación comercial, en cuyo caso también puedes hacerlo con un NFT creando una sola copia y dotando a su comprador de todos los derechos (que como podrán imaginar, tiene un valor mucho más alto). Eso fue lo que hizo el artista denominado “Beeple” al vender su obra titulada “Los Primeros 5,000 días” en donde hizo un compuesto de 5,000 obras que hizo durante 5,000 días consecutivos, y cuyo precio inició en subasta en US$100 dólares y terminó en US$69 Millones de dólares. Muchos dirán que esto es una estupidez, ya que si es una obra digital cualquiera puede copiarla y tener una copia exacta para admirar en su casa impresa y puesta en un cuadro en la pared, pero la idea es que el comprador de ese NFT ahora no solo tiene derechos sobre la obra original sino que de paso puede decir que aunque millones de otras personas tienen “copias” que él o ella es la única persona que tiene derecho sobre un “original” (y su explotación comercial, pues algo interesante de los NFTs es que opcionalmente puedes recibir comisiones por su posterior venta, en esencia continuando recibiendo un ingreso mientras más uso le den al NFT). Esto es medio chocante ya que tradicionalmente uno piensa de un “original” como algo tangible (como un cuadro de Dalí colgado en un museo), y no como un simple algoritmo que diga que entre mil trillones de copias solo al de Fulanito de Tal es la original y que solo Fulanito de Tal puede explotar los derechos de esa obra (para vender t-shirts, hacer murales, trabajos derivados, etc). O en otras palabras, e independientemente de lo que alocado o no que le parezca esto a algunos, la gran revolución de los NFTs es que por fin dota a obras que son netamente virtuales/digitales de un mecanismo por el cual sus creadores (o futuros propietarios) puedan alegar derecho sobre la obra y explotarla de forma fácil y segura. Noten que un problema actual (antes de llegar los NFTs) que tenían muchos artistas digitales es que sus obras eran fácilmente copiadas en Internet, y se hacía bastante difícil comprobar quién es el original autor y propietario de la obra, cosa que ahora se hará trivial hacer ya que en el momento de un artista hacer una nueva obra, lo primero que podría hacer es crear un NFT de esta para que exista una evidencia en el tiempo de que él o ella es el original autor de la obra, y de paso utilizar este mecanismo para hacer trivial el poder venderla en mercados en línea. Es bueno notar que ya se ha formado una industria millonaria alrededor de los NFTs, y no solo con arte visual, sino con todo tipo de creaciones que puedan imaginar, desde canciones y novelas, hasta fotos de memorabilia o videos deportivos de la NBA. Incluso, ya hay video-juegos en donde puedes obtener objetos virtuales dentro del juego que solo controlas tú al comprarlos como un NFT (es decir, ni los creadores del mismo juego tienen derecho al objeto después que lo adquieres). Habiendo dicho todo eso, la pregunta ahora es, ¿Es esto una moda pasajera o algo con perspectiva de largo plazo?, y mi respuesta a eso es que creo será la nueva norma hacia el futuro. Hace tiempo que hacía falta una solución al tema de la propiedad intelectual en el mundo virtual/digital, y los NFTs caen como anillo al dedo como solución a ese problema, y de paso esto es bueno notar que pone de cabeza abajo la tradición de que cuanto tenías un objeto valioso lo que lo hacía valioso es que tenías el original, mientras que ahora todos pueden tener una copia exacta del original y lo que lo hace valioso es el NFT que avala que tú y solo tú eres el propietario de esa creación. Quiero finalizar este artículo con una preocupación (y así vemos el otro lado de la moneda): Aunque los NFTs son una excelente idea, hay un tema con su implementación actual y es que consumen una gran cantidad de energía (fuente) para su creación y verificación (similar al problema que tienen los bitcoins con su uso de energía actual en el minado), lo que significa que si se popularizan los NFTs (y todo apunta a que así será) que estamos dirigiéndonos a un futuro en donde tendremos una carga significativa de energía que podría traer serios problemas al medio ambiente terrestre. Solo esperemos que antes de que esto sea un gran problema que ya tengamos fuentes de energía renovables que puedan lidiar con la carga adicional... Nota: Si les gustan estos temas les recomiendo seguir el canal oficial de eliax en Telegram, o si desean interactuar conmigo y la comunidad eliax en general, consideren también unirse al grupo oficial en Telegram Actualización: Por si se interesan, he aquí el primer NFT creado por mí, y a la venta por si alguien se interesa (esto fue un experimento más que otra cosa, pero si quisieran tener una pedacito de eliax, aquí está). autor: josé elías |
10 comentarios
1,385,025 vistas |
Arte , Curiosidades , Derecho Digital , Educación , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Tecno-Seguridad |
domingo, febrero 28, 2021
|
Hola amig@s lectores.
Recientemente he abierto un Canal y un Grupo oficial de #eliax en Telegram y a diferencia de otros medios de eliax como Instagram, Twitter, o Facebook en donde el contenido es esencialmente el mismo de forma replicada, por Telegram encontrarán material adicional exclusivo y no disponible por ninguna otra de las redes sociales de eliax. Aparte del contenido habitual de eliax, compartiré además enlaces en crudo a cosas que encuentro interesantes en el día a día pero para los cuales no tengo tiempo para crear artículos elaborados o entradas en redes sociales, por lo que estarán consumiendo a eliax “en crudo” tras bastidores. Y de paso, ese será el medio por el cual además comentaré de uno-a-uno con varios de ustedes, y donde compartiré notas de audio (casi al estilo podcast) sobre cualquier tema que llame mi atención (o en respuesta a sus preguntas y/o comentarios). También por esa vía podrán encontrar de forma exclusiva mis acostumbradas predicciones sobre el futuro (ahora mismo encontrarán una sobre el futuro cercano de los microprocesadores y sobre lo que puede hacer en mundo ARM en Android y Windows para competir contra el Apple Silicon). Finalmente noten que la diferencia entre un canal y un grupo en Telegram es que en el canal sólo verán las entradas mías (junto a comentarios de la comunidad en un enlace debajo), mientras que en el grupo podrán comentar las entradas del canal así como subir sus propios contenidos que crean sean apropiado para la comunidad eliax. O en otras palabras, si quieren consumir solo todo el nuevo contenido de eliax (y no disponible en otras redes) y con poco ruido, subscríbanse al canal, y si quieren entrar con ambos pies a la comunidad eliax (y el posible ruido de centenares de comentarios de todo tipo que eso conlleva) entonces háganse miembros del grupo también. Noten que una ventaja de Telegram sobre WhatsApp y otras plataformas similares es que pueden descargar Telegram no solo para sus celulares, sino que además en versión nativa para tabletas, Windows, Mac, Linux y de paso pueden acceder también por página web si así lo desean. Y lo mejor de todo es que el contenido está siempre en la nube y por tanto ocupa muy poco espacio en sus celulares. ¡Así que no olviden subscribirse y los veo por allá! Canal oficial: t.me/eliax Grupo oficial: t.me/eliax_comunidad autor: josé elías |
2 comentarios
1,371,630 vistas |
Ciencia , Cine / DVD / Blu-ray , Curiosidades , Educación , General , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Redes Sociales |
sábado, febrero 20, 2021
|
¿Alguna vez han imaginado volverse de tamaño microscópico y observar por ejemplo con sus propios ojos cómo funciona un virus, una bacteria, una molécula de ADN o incluso el interior de los átomos mismos? Pues les tengo malas noticias: Aun si fuese posible teóricamente (no lo es, ya que tus átomos no pueden cambiar de tamaño), y aun si tuviésemos la tecnología para hacerlo, te decepcionarías mucho ya que tus ojos estarían ciegos.
Ciego, pero ¿por qué? Pues porque la retina de nuestros ojos (y muy similar a las cámaras digitales) capturan luz por los fotones que llegan en forma de onda a sus fotosensores, y estas ondas del espectro visual (que pueden imaginar como las olas que se crean cuando tiras una piedra en un lago tranquilo, pero flotando en el espacio) tienen un tamaño (o “altura”) mínimo determinado, y ese tamaño mínimo es mucho mayor que la de los átomos, por lo que para detectarlas necesariamente se necesitan foto sensores que sean mayores en tamaño a la “altura” de esas ondas (es decir, un conjunto de moléculas grandes como las que tenemos en nuestra retina ocular o en un sensor de cámara digital). ¿Qué significa eso? Que si te reduces con una máquina mágica al tamaño de una molécula, serías totalmente ciego al mundo, viendo solo ciertas sombras conforme una que otra onda “gigante” pase por tus ojos. Una analogía sería una bacteria microscópica flotando sobre el mar. Por más que le digas que trate de ver la ola sobre la cual está, esta no podrá verla jamás, ya que sus ojos solo alcanzan a ver las moléculas de agua a su alrededor de tan diminuta que es. Pero, ¿y esto más que una curiosidad tiene implicaciones en el mundo real? Pues sí, y muchas. Esta es la razón por la cual los microscopios ópticos (es decir, los que funcionan con lentes de magnificación creados de cristal y que captan luz como un ojo humano) solo pueden magnificar hasta cierto punto. Por más lentes de aumento que le pongas nunca podrán mostrarte una molécula o un átomo ya que las ondas de luz son mayores en tamaño a estos. Pero entonces, ¿y esas fotos que vemos de moléculas en revistas de ciencia, cómo las obtenemos? Pues con otro tipo de “microscopio” que no dependen de luz (y de su inmenso tamaño de onda), sino de cosas más pequeñas que las ondas de luz, como las interacciones de los electrones de los átomos. En este caso, hay microscopio (como los llamados “Scanning Tunneling Electron Microscopes”) que “disparan” electrones y los detectan con equipo especializado (similar a como se dispara luz para iluminar objetos en microscopios ópticos), en esencia reproduciendo una imagen con una “magnitud de onda” mucho más pequeña que la luz, y por tanto pudiendo acercarse a objetos aun más pequeños. Y eso nos lleva a la noticia de hoy. Recientemente científicos han estado desarrollando nuevas técnicas que utiliza otras estrategias aun más sofisticadas que permitirán resoluciones aun más sorprendentes, como lo detalla (en inglés) los dos enlaces que les comparto al final de este artículo, en donde se ha hecho un gran adelanto en este tema con una técnica que podríamos llamar “Imágenes por Holografía Cuántica”). En resumen, estamos entrando en una nueva era en donde será posible lograr una increíble resolución espacial (es decir, del tamaño pequeño de las cosas) y temporal (es decir, que podremos grabar videos de alta velocidad para después ver en cámara lenta a increíbles fenómenos ultra-microscópicos). En esencia, será posiblemente ver eventualmente en gran detalle incluso el funcionamiento de nuestro ADN, o la transformación de estados de materia según cambia su temperatura, cosas que hasta hace poco parecerían de ciencia ficción. Este adelanto tendrá repercusiones en todo tipo de áreas que van desde la creación de una nueva generación de meta-materiales, hasta nuevas formas de crear medicinas avanzadas. A continuación los dos artículos que les prometí para los que deseen más información técnica: enlace 1 y enlace 2 Finalmente noten que ya se han creado técnicas a través de los años que permiten hacer imágenes y hasta videos de estructuras atómicas, muchos de los cuales pueden ver abajo en la sección de “previamente en eliax”, pero es bueno destacar que esas imágenes y videos se han realizado con equipo extremadamente complejo y costoso, y que esta nueva técnica de Holografía Cuántica promete no solo hacer un mejor trabajo (por ejemplo, pudiéndose quizás incluso escanear todo tu cuerpo de arriba a abajo rápidamente, en vez de solo unas que otras células, lo que habría que ver si se podría utilizar como base para la teletransportación en un futuro) sino de paso a una fracción del costo (al largo plazo cualquiera de nosotros podría tener acceso a esta tecnología). - Nota: Si les gustan estos temas, no dejen de visitar y unirse al canal oficial de eliax en Telegram y si quieren debatir estos temas e interactuar conmigo pueden también unirse al grupo oficial de eliax en Telegram. ¡Los espero por allá! autor: josé elías |
4 comentarios
1,306,493 vistas |
Ciencia , Curiosidades , Futuro Digital , Salud , Tecnología Visual |
sábado, noviembre 14, 2020
|
Hola amig@s lectores,
El día por fin llegó y este martes pasado Apple anunció las primeras Macs con su propio microprocesador integrado (tipo “SoC”, o Sistema-en-un-Chip) al que ha bautizado el M1, un chip derivado de los chips Ax utilizados en iPhones, iPads, AppleTVs y Apple Watches, y para muchos las primeras pruebas de rendimiento los ha tomado por real sorpresa, aunque quizás no tanto para otros que ya hayan leído mis artículos acá en eliax sobre el tema a través de los años (iniciando quizás con este en el 2007, que curiosamente pronosticó desde ese entonces con bastante certeza a la Apple de hoy). Y hablando de artículos técnicos, recomiendo fuertemente leer el artículo que escribí este pasado Julio 2020 titulado “Análisis #eliax: Apple Silicon, todo lo que querías saber (y lo que no sabías que te gustaría saber)” en donde expliqué en lujo de detalle (y en un lenguaje que personas no-técnicas pudiesen entender) qué es lo que hace diferente a estos microprocesadores de Apple. Sin embargo, como se que muchos no leerán el artículo, he aquí la versión ultra-resumida (y obviamente dejando fuera muchos datos interesantes) de uno de los puntos en ese artículo: A diferencia de la mayoría de otras empresas que licencian los chips ya diseñados por la empresa ARM Holdings, Apple lo que hace es que licencia lo que se llama el “ISA” de ARM, es decir, el lenguaje común que deben hablar todos los procesadores ARM, y después Apple toma ese lenguaje de bajo nivel y desde cero ha creado su propia implementación de esta arquitectura. O en otras palabras, lo único que Apple tiene de ARM es la definición de su lenguaje básico, pero el diseño que implementa ese lenguaje en silicio fue creado desde cero por Apple, utilizando algunos de los más legendarios diseñadores de microprocesadores de todos los tiempos. Aparte de eso, es importante destacar que debido a que es Apple quien diseña su propia versión de la arquitectura ARM, que esta puede tomar todo tipo de decisiones para lograr hacer de estos aun mejores microprocesadores, y eso es precisamente lo que ha hecho, integrando en estos unos circuitos adicionales propietarios, diseñados para acelerar los procesos más comunes en sus sistemas operativos, así como los procesos más comunes en las aplicaciones que estos corren. Como ejemplo, una laptop genérica de Windows con un procesador x86 (sea de Intel o AMD), aun corriendo a la misma velocidad que una laptop MacBook Air de Apple con el nuevo chip M1 es casi seguro que con aplicaciones de la vida real esta sea más lenta que la laptop de Apple. ¿Por qué? Pues utilicemos el ejemplo de alguien que vive de editar videos, y digamos que lo que estás haciendo es editando videos en el formato H.265. En el mundo Android/Windows es posible que ese trabajo se pueda hacer “a fuerza bruta” utilizando el gran poder computacional crudo de los chips de última generación en esas plataformas, y es incluso posible que se puedan aceleran algunos cálculos con “motores vectoriales” que existen usualmente en el GPU (el chip dedicado a manipular gráficos), pero en el entorno de Apple Silicon, Apple ha creado circuitos dedicados específicamente para codificar y descodificar video H.265, y en tiempo real. ¿Qué significa eso en la práctica? Que mientras tu PC con Windows está arduamente tratando de codificar y descodificar el “stream” de video H.265 mientras editas tu video, que esta está esencialmente utilizando su CPU y GPU casi al máximo con poco margen para que hagas otras cosas, haciendo que tu PC se sienta pesada y lenta. En el lado de Apple Silicon sin embargo la situación es diferente... Mientras editas tu video, circuitos dedicados están constantemente codificando y descodificando tu stream de H.265 en tiempo real, liberando esencialmente a tu CPU y GPU para que tengan ciclos de sobra para otras labores como manejo de audio, internet, labores de Office, etc, haciendo que tu sistema operativo se sienta ta fluido como la mantequilla. Incluso, ya se hizo público que incluso la nueva Mac Mini anunciada de US$699 dólares puede editar video en resolución 8K en tiempo real, algo inaudito en un equipo de tan bajo costo, de tan pequeño tamaño, y de tan bajo consumo energético (para los que no sepan de estos temas técnicos, noten que una señal 8K está compuesta de 16 señales de video “Full HD” 1080p como lo conocen los consumidores, así que hablamos de una máquinas de US$699 dólares capaz de editar el equivalente a 16 pantallas de video FullHD en tiempo real). Y notar que video es solo un ejemplo. Desde hace años en iOS y recientemente en el mundo de las Macs (con procesadores adicionales en los modelos clásicos con chips Intel, y ya integrado en el chip M1 hoy día), Apple tiene circuitos dedicados para en tiempo real cifrar todos los datos que fluyen en la memoria de la máquina así como la escritura y lectura de almacenamiento (sea a disco duro tradicional o SSD en estado sólido). Eso significa que en los entornos de Apple, la seguridad por medio de cifrado de datos está habilitada por defecto, ocurre en tiempo real, y tiene un impacto casi cero en el rendimiento del resto de la máquina, mientras que en la mayoría de los entornos Android/Windows, esas son funciones que tiene que hacer el CPU en adición a sus funciones cotidianas. Y esos fueron solo dos ejemplos. Apple dedica espacio para circuitos dedicados en sus chips a todo tipo de cosas que van desde sonido 3D hasta imágenes de alto rango dinámico (HDR), y desde reconocimiento facial y de huellas digitales hasta Inteligencia Artificial (por medio de Machines Learning). Así que los chips de Apple Silicon tienen las siguientes razones para ser no solo más eficientes que una máquinas tradicional x86 con Windows, sino para ser mucho más eficientes: 1. Para empezar, no inician con un diseño genérico de ARM, sino que un diseño creado desde cero por Apple mismo optimizado para las necesidades de su ecosistema y de sus usuarios. 2. Utilizan circuitos dedicados para acelerar tareas comunes de un usuario, liberando al resto del chip para otras labores más genéricas y haciendo que todo se sienta más fluido. 3. Aunque un tema un poco más técnico, Apple está liderando también en pruebas de “rendimiento por vatio”. Esto significa que sus chips consumen mucho menos energía haciendo el mismo trabajo que la competencia, lo que se traduce a que o (1) puedan trabajar sin calentarse tanto y sin perder velocidad o (2) tener un rendimiento aún superior bajo calentamiento y enfriamiento activo. Y a propósito, ese último punto es la razón por la cual la nueva MacBook Air M1, aun teniendo un chip con 8 núcleos de CPU y 8 núcleos de GPU, y decenas de otras microceldas de computación integradas, no solo no require abanicos para enfriar el chip, sino que de paso su batería dura fácilmente hasta 20 horas de uso, lo que liberará a muchas personas para que trabajen sin miedo el día entero sin tener que cargar un cargador encima todo el tiempo, que es otro de los beneficios no cuantificables sobre papel que esta arquitectura de Apple ofrece al usuario común. Sin embargo, no tienen que llevarse de todo lo que digo, ya surgieron los primeros benchmarks (medidas de rendimiento) de las primeras MacBook Air M1 que han llegado temprano a los laboratorios que hacen este tipo de mediciones, y los resultados hablan por sí mismos de lo contundente que son. Por ejemplo, el reconocido portal Tom’s Guide ha anunciado en su titular (traducido del inglés) “Revelan los benchmarks de la MacBook Air M1 y destruyen a las laptops con Windows”. Y si buscan en Google encontrarán otros resultados similares que han surgido en los últimos 2 días. Es importante aclarar que la MacBook Air M1 que acaba de salir a un precio de US$999 dólares no es que solo es más rápida que laptops de Windows en su rango de precio, sino que es más rápida que cualquier laptop con Windows que exista en el mercado, sin importar su precio. O En otras palabras, aun si compararas una laptop con Windows en US$3,000 dólares, esta seguiría siendo más lenta que el modelo más básico de Apple (la excepción a esto serían las laptops con GPU separados “discretos” de gama alta para video-juegos y de alto costo, pero noten que los benchmarks indican que el M1 supera hasta en un 30% a una tarjeta NVIDIA GeForce GTX 1050, lo que indica que al menos en el sector de chips integrados en laptops no hay comparación en el mundo de Windows por el momento). O en otras palabras, esto ha cambiado no solo las reglas del juego sino que el terreno de juego en sí. Ahora curiosamente la mesa ha dado vueltas y ahora se tendrán que considerar las laptops de Apple como no solo las más baratas para el rendimiento que ofrecen sino además las más potentes, dos condiciones que generalmente eran mutuamente exclusivas en el mercado, particularmente en el mercado profesional. Y ojo (como si ya no fuera suficiente dolor de cabeza para Intel y AMD), que este es apenas el primer chip M1 de Apple, que en apenas su primera encarnación básica ya es el chip más potente del mundo en el área que compite, y que todavía no hemos visto lo que Apple tiene planeado para la gama alta de su línea “Pro” en los próximos dos años, que pueden apostar será aun más potente, y en el caso de la Mac Pro será muchísimo más potente, posiblemente con decenas de núcleos o quizás configuraciones multi-chip en paralelo. ¿Qué significa todo esto? Que estamos literalmente al inicio de una nueva revolución en el mercado, una revolución que empujará ahora a Intel, AMD y Microsoft a ponerse las pilas y responder. Aquí alguien más que tiene de ganar aparte de Apple es ARM Holdings, quien ya está entrando en el diseño de chips ARM para uso en escritorio y laptops, y hay que ver si Microsoft se lanzará a seguir los pasos de Apple en el 2021 y por fin lanzar una versión de Windows optimizada para ARM. Y ojo, antes de que comenten al respecto: Sí, Microsoft creó una versión de Windows para ARM que sacó con sus tabletas con el llamado “Windows RT”, pero fue un total fracaso. Si Microsoft realmente quiere competir contra macOS con Windows, tendrá que hacerlo saltado de pie a cabeza en el mundo ARM, y de paso por fin dejar atrás a x86 y seguir soportando las aplicaciones tradicionales por medio de herramientas como Rosetta 2 en las nuevas Macs con el chip M1. Y hablando de Rosetta 2, hablemos de qué sucederá con la aplicaciones que ya poseen en sus Macs tradicionales... Para esto Apple ofrece Rosetta 2, que es una herramienta que en tiempo real toma un binario creado para x86 (la arquitectura de Intel y AMD) y lo “transcompila” a Apple Silicon, esencialmente generando un nuevo binario nativo para Apple Silicon. Según Apple (y aparenta ser cierto en la práctica), debido a la alta optimización de la transcompilación y debido al gran poder y eficiencia del M1, curiosamente muchas aplicaciones de Intel correrán mejor en las nuevas Macs con M1. Sin embargo esta transcompilación aunque funcionará para la vasta mayoría de aplicaciones, habrá un pequeño porcentaje de aplicaciones (menos del 1%) que no funcionarán, pero son aplicaciones muy específicas que tienen que ver con virtualización. Así que por ejemplo, aplicaciones como VMWare y Parallels Desktop que te permiten emular a Windows o Linux en Mac, inicialmente no funcionarán en sus versiones tradicionales, pero si lo harán desde que sus desarrolladores creen nuevas versiones específicas para Apple Silicon, y eso nos lleva a otra herramienta que ha traído Apple a la mesa para suavizar la transición entre las Macs tradicionales y las nuevas: Binarios Universales. Un Binario Universal en el mundo de Apple tiene dos sentidos, y ambos han sido utilizados tradicionalmente por Apple a través de los años. En el primer sentido, un Binario Universal puede ser un App para la misma arquitectura pero que funciona en dos plataformas diferentes. El mejor ejemplo de esto son las Apps Universales para iPhone y iPad. Esencialmente el mismo App funciona en ambos entornos, aun estos sean diferentes (pero compartiendo la misma arquitectura de los chips Series A de Apple que comparten los iPhones y iPads). En el segundo sentido, por Binario Universal Apple se refiere a un solo archivo que contiene los binarios para dos arquitecturas totalmente diferentes, como la del x86 y la de Apple Silicon. Y esta es la ruta que durante unos años Apple seguirá. Bajo este modelo, cuando los desarrolladores creen sus Apps utilizando las herramientas de Apple, tras bastidores Apple compilará dos versiones de la aplicación, una optimizada para x86, y otra para su propio Apple Silicon, y las empaquetará ambas en un solo archivo instalador. ¿Qué significa eso? Que al menos por los próximos años cualquier usuario de Mac, sin importar que la Mac sea de la tradicional x86 o Apple Silicon podrán compartir archivos normalmente entre sí y los programas funcionarán transparentemente. Esto significa también que las Macs que hayas comprado recientemente no dejarán de funcionar, y que casi todos los programas que se hagan para las nuevas Macs funcionarán en tu Mac (salvo obviamente aquellos casos que tomen ventaja de cosas nuevas que no existan en las Macs anteriores, como podría ser un sensor de FaceID que espero llegue algún día a las Macs). Según Apple, la empresa planea seguir dando soporte a las Macs tradicionales “por varios años más”. Si nos llevamos de su historial con transiciones pasadas, lo más probable es que el tema de los binarios universales sea la norma por dentro al menos 3 o 4 años más, y quizás por un máximo de 5 o 6. Y noten un par de temas más. El primero es que Apple ya podrá crear aplicaciones mega-universales, que no solo funcionarán en las Macs con x86 y las de Apple Silicon, sino además en iPhone y iPad, cosa que ha anunciado oficialmente. Y esto se hará cada vez más fácil debido a que cada año macOS y iOS y iPadOS comparten cada vez más sus cimientos. Incluso, por si no sabían, una de las nuevas cosas que puedan hacer las nuevas Macs con M1 es ejecutar aplicaciones de iPhone y iPad (aunque son los desarrolladores de cada App los que decidirán si permitirán ejecutar sus Apps de iPhone y iPad en macOS, pues quizás quieran optimizar su interfaz para cada entorno), lo que traerá cientos de miles de Apps de iPhone (y particularmente iPad) a macOS. Yo por ejemplo sueño con una futura iMac cuya pantalla se recline y se convierta en una tableta gigante para utilizar aplicaciones optimizadas para touch, o por ejemplo utilizar a ProCreate para dibujar/pintar con el Apple Pencil (dicen que soñar no cuesta nada). Y el otro tema es que es bueno que sepan que esta no es la primera vez que Apple hace semejante transición, incluso, esta es la tercera vez que lo hace. La primera vez fue cuando transicionó sus Macs de los chips Motorola 68xxx a los PowerPC, la segunda vez fue cuando transicionó a sus Macs con OS X desde PowerPC a x86, y esta vez es la tercera, así que la empresa ya tiene experiencia con estas transiciones, y por sobre todo que no tiene el temor de hacerlas, cosa que siempre he deseado de Microsoft, quien testarudamente al día de hoy quiere seguir soportando aplicaciones de hace décadas atrás, y esa resistencia al cambio es precisamente lo que le costará mercado ahora, pues pueden esperar que al menos en los próximos dos años Apple tomará una ventaja significativa sobre el mercado de Windows, al menos en el sector profesional. Para que tengan una idea a lo que me refiero, herramientas como Pixelmator ya están reportando esta semana que la versión M1 es entre 3 y 15 veces más rápida que la versión x86, y esa ventaja puede dejar atrás aquellas otras aplicaciones profesionales que solo existen en Windows si no se apuran rápidamente a migrar sus apps a macOS. Adobe por ejemplo ha respondido que migrará toda su plataforma creativa a Apple Silicon precisamente para no quedarse atrás, y esperen lo mismo de aplicaciones de otra índole en ramas de la ingeniería, medicina, arquitectura, etc. Habiendo dicho todo eso, y para concluir, quiero decir que es verdad que ahora vendrán las guerras de los Fanboys y los Haters, pero al final de cuentas somos los consumidores los que seremos beneficiados de estos saltos tecnológicos, y debo decir que el mundo de las PCs de escritorio y laptops (de Windows y Macs) necesitaban algo como esto, pues ese mundo se había casi paralizado debido a los grandes avances en el sector móvil. Así que amen u odien a Apple, hay que darle su debido crédito de querer siempre innovar y empujar (o a veces halar) al resto de la industria hacia adelante... Los próximos dos años serán verdaderamente emocionantes. autor: josé elías |
20 comentarios
1,431,244 vistas |
Apple / OS X , Futuro Digital , Hardware , Linux , Negocios , Opinión / Análisis , Predicciones , Software , Windows / Microsoft |
lunes, agosto 24, 2020
|
Hola amig@s lectores,
En estos días una noticia ha explotado en el mundo de la tecnología llamando bastante la atención tanto de desarrolladores de software como empresarios y políticos: La empresa Epic Games anunció que está demandando a Apple y a Google por lo que consideran es un tratado injusto en sus respectivas cuentas de aplicaciones, y citan específicamente su popular juego Fortnite que es en actualidad uno de los juegos más populares del mundo. Pero antes de continuar, entendamos el contexto... En el 2008 Apple anunció el App Store ("La Tienda de Apps"), una tienda que por primera vez y de forma super segura y super fácil permitía a consumidores instalar aplicaciones adicionales a las que venía instaladas por defecto en sus iPhones, algo que muy poco tiempo después fue replicado por Google en su tienda para Android y el Play Store. Sin embargo, es bueno aclarar que estas tiendas no fueron creadas por puro altruismo, sino que son parte de un modelo de negocio de estas empresas para generar más dinero post-compra del equipo celular. En el caso de Apple en particular, esto le ha funcionado increíblemente bien, y particularmente en el ambiente de video-juegos, ya que el poder adquisitivo de los usuarios de iPhones en promedio es mayor que el de usuarios de Android, y a eso se agrega que para desarrolladores es mucho más fácil hacer juegos para iOS que para Android debido a que en el entorno iOS hay mucha más homogeneidad, mientras que en el entorno Android hay demasiada variedad de dispositivos con demasiadas variaciones en poder de procesamiento, pixeles por pantalla, potencia de los gráficos, etc. Y ojo que esto no es una opinión subjetiva mía, pues lo que acabo de decir es el consenso general de la industria avalado por cifras. Como ejemplo relevante a esta conversación de hoy, noten que la misma Epic Games anunció que en el mes pasado de Julio sus ventas en iOS fueron de US$43.4 Millones de dólares, mientras que en Android fueron de apenas US$3.4 millones de dólares (o en otras palabras con Apple la empresa Epic Games vende unas 13 veces más que en Android. Y a propósito, la razón de citar estas cifras es porque es importante que entiendan que Apple representa para Epic Games su mayor fuente de ingresos en al menos el espacio móvil, por lo que cualquier ahorro que la empresa pueda tener en el ecosistema de Apple representaría una gran diferencia monetaria para Epic. Habiendo dicho eso notarán entonces por qué es que Epic ha creado toda una campaña de Relaciones Públicas en contra de Apple específicamente, aun esté también demandando a Google (y hago paréntesis porque he notado las redes de usuarios de Android felices que Epic está demandando a Apple, desconociendo obviamente que la demanda aplica igual a Google, pero así es el mundo de los fanboys). Epic ha llegado a un extremo tal que incluso creó su propia versión del famoso anuncio de Apple "1984", pero esta vez poniendo a Apple como el opresor, y de paso ha organizado eventos masivos anti-Apple dentro de Fortnite. Sin embargo, aunque Epic tiene un punto (en algo que mencionaré al final en donde estoy de acuerdo con ellos), en gran parte toda esta jugada de Epic ha sido algo totalmente premeditado y extremadamente hipócrita, y les mostraré cómo a continuación... Primero, se hizo obvio que todo esto fue premeditado por Epic ya que en la misma semana no solo violó los términos de uso del App Store (lanzando una funcionalidad que le permite cobrar dinero dentro del App pero sin pasar por la tienda de Apple, algo que está terminando prohibido y que hicieron clandestinamente) y segundo lanzaron el video de "1984" que ya tenían listo desde hace tiempo (un video de esa naturaleza no se planifica y hace en 48 horas, es algo que tomas literalmente semanas en el mejor de los casos), lo que indica que Epic tenía toda esta estrategia planificada desde hace tiempo, lo que incluye de paso enviar información falsa a sus usuarios para ponerlos a su favor y en contra de Apple. ¿Cuál información falsa? Pues para eso pasemos ahora cómo es que son unos hipócritas... Para empezar, Epic le ha hecho creer a sus usuarios y fans que Apple es el demonio que quiere acabar con sus opciones de juegos, cobrándoles un 30% de comisión por lo que sea que paguen. Pero lo que Epic no les dice es que la empresa paga también ese mismo exacto 30% en las tiendas de Microsoft, Sony y Nintendo. La otra cosa que Epic tampoco les dice es que a diferencia de Microsoft, Sony y Nintendo, que Apple en el segundo año de subscripción cobra solo el 15%, la mitad de esos competidores. Pero la parte verdaderamente hipócrita es que Epic están demandando (en una carta que enviaron a Apple el 30 de Junio y que recién se hizo pública) que Apple le permita (1) poder cobrar dentro del ecosistema de Apple como les de la gana sin darle un centavo a Apple y (2) poder tener su propia tienda de Apps en el iPhone, iPad, Apple TV, Apple Watch y Macs, sin pagarle un solo centavo a Apple, y lo hipócrita de esto es que Epic tiene su propio ecosistema de herramientas que cobra a quienes la utilizan, así como cobra a los mismos jugadores por usar sus juegos y comprar cosas dentro de esos juegos. En otras palabras, Epic está demandando acceso 100% gratuito dentro de Apple, pero ellos mismos sí quieren poder cobrarle a otros. Y no, nada de esta información "no conveniente" la ha dicho Epic a ninguno de las manadas de fans, fanboys y haters que ha reclutado en su guerra santa contra Apple. Y creo que hay que pausar un segundo para entender bien esta parte. La analogía de lo que Epic quiere hacer es que si tu eres propietario de un Shopping Mall (mega-centro de tiendas, o plaza, como le dicen en algunos países latinos), Epic quiere que no solo le cedas un espacio dentro de ese Mall sin pagarte renta alguna, sino que además quieren poner en ese espacio dentro de tu Mall una tienda desde la cual ellos puedan administrar y vender más locales dentro de tu Mall, y todo eso sin darte un solo centavo. Esto ni siquiera es comunismo, esto es depredación sin ningún tipo de vergüenza de los recursos de otros. Y si se preguntan, ¿y no es eso libre mercado? Pues no. Libre mercado es que Apple no obliga a Epic a entrar a su ecosistema. Epic entró no solo porque fue su voluntad, sino que entró después de estar 100% de acuerdo con las normas y reglas de Apple, y al Epic violar el acuerdo Apple hizo lo que haría cualquiera de nosotros en su lugar: Le dio una advertencia que eso tenía que parar o que se arriesgaban a ser sacados del App Store. También es bueno destacar que Apple no cobra ese dinero sin ninguna justificación (como lo quiere hacer ver Epic). Apple ha invertido literalmente miles de millones de dólares en desarrollar su ecosistema, y para mantenerlo necesita también de grandes recursos (solo piensen en los centenares de miles de servidores que la empresa tiene que mantener mensualmente para manejar la carga de los más de mil millones de usuarios del App Store, y sus demandas en descargas y procesamiento de pagos en tiempo real), por lo que aun Apple quisiera (y no lo va a estar porque es una empresa con inversionistas que demandan ganancias, como debe ser) esta no podría proveer el App Store de forma gratuita a nadie. Agreguen a eso todos los sistemas de protección contra Apps malignas que Apple tiene, que garantizan en la medida de los posible que sus usuarios estén lo más protegidos posible (obviamente no son perfectos en esto, pero las cifras hablan por sí mismas: Más del 99% de los problemas de seguridad de Apps afectan a Android y no a iOS, revisen por ejemplo los datos de Checkpoint para este punto). Así que en resumen, lo que Epic demanda es totalmente injusto, y lo hizo de una forma realmente innecesaria, premeditada, y con obvias malas intenciones, de paso utilizando una táctica de baja moral al reclutar a sus seguidores haciéndoles creer que Apple es el malo del juego y quien quiere cobrarles, cuando Epic mismo les cobra a ellos. Así que esta no es una pelea legal entre David vs Goliat, esto es más una pelea de intereses en donde Epic sabe que su mayor fuente de ingresos proviene de Apple y quiere buscar la forma de cortar los ingresos a la mano que le da de comer. Ahora bien, aun habiendo dicho todo eso de Epic, sí hay algo en lo que estoy parcialmente de acuerdo con ellos, y es en ese 30% inicial. En mi opinión, aunque Apple está en todo su derecho de demandar el porcentaje que le plazca, ya que es su plataforma, yo creo que algo más factible para ambas partes debería rondar entre el 10% y 20% como mucho, quizás fijado en un 15%, sin embargo esto es algo que Epic muy bien pudo solicitarle a Apple (o incluso organizar pacíficamente un grupo de los grandes usuarios del App Store) sin necesidad de violar sus reglas y sin necesidad de iniciar una campaña sucia contra la empresa. Hoy lunes 24 de agosto 2020 será la primera audiencia legal sobre este caso en las cortes de EEUU, y ya veremos lo que sucede de ahora en adelante (mantendré este artículo actualizado acá abajo conforme pasen grandes hitos con este caso), pero mientras tanto, una predicción de mi parte: Epic va a perder esta batalla en el sentido de que no va a lograr que Apple ceda en darle tratamiento especial, y mucho menos permitirle que ponga su propia tienda dentro de la tienda de Apple, pues permitir esto sentaría un gran y peligroso precedente en los EEUU que afectaría todo su sistema capitalista y provocaría un éxodo de empresas buscando otras fronteras más amigables a la inversión y que proteja mejor la propiedad intelectual y trabajo de visionarios. Por otro lado, esto sí posiblemente al largo plazo haga que Apple, Google, Microsoft, Sony y Nintendo ponderen si 30% es quizás un poco más de lo justo o apropiado o aceptable para sus clientes, y de ellos aceptar una baja (aun sea a un 20%) en cierta forma esa sería una victoria para Epic. Sin embargo, no pierdan de vista el hecho de que si Apple le cierra las puertas a Epic (y tiene todo el derecho legal de hacerlo) que esto afectaría enormemente las finanzas de Epic al largo plazo, pues recuerden que facturan por medio del App Store más de US40 Millones de dólares mensuales. Pero como si fuera poco, Epic es la creadora del motor de juegos Unreal Engine, utilizado por decenas de miles de juegos y apps en el App Store, y si Apple le revoca la licencia del App Store a Epic, es posible que juegos que utilicen el Unreal Engine tampoco podrán ser aceptados en el App Store, dando un tremendo golpe a las finanzas de Epic, por lo que no creo la empresa esté realmente pensando en llevar esto para largo y creo que está haciendo un bluf como en poker, pues no solo afectaría esto sus finanzas gravemente, sino que le daría una gran ventaja a su competencia principal, Unity, que hacen el otro gran motor de juegos multi-plataforma popular de la industria. Respuesta a una pregunta frecuente que quizás algunos de ustedes tengan: Si se preguntan qué va a pasar con los que ya tengan el juego instalado en sus iPhones u otros dispositivos de Apple, la respuesta es que por ahora si tienen la versión anterior a la más reciente (la que viola las normas de Apple) el juego continuará funcionando normalmente, sin embargo es posible que en los próximos días Apple remueva la última versión que viola las normas, invaliden el juego a los que la tienen instalada, y ustedes tengan que volver a recargar la versión anterior (que Apple no removerá del App Store ya que no viola las normas). O en otras palabras, por el momento podrán seguir teniendo acceso a al menos la versión más reciente del juego que no viola las normas del App Store, sin embargo ya no podrán tener actualizaciones del juego, lo que significa que al largo plazo el juego podría dejar de funcionar conforme salen nuevas versiones de iOS. Todo esto claro, si no se llega a un acuerdo antes, y ese acuerdo sería que Apple no cambiaría absolutamente nada y Epic Games de un paso atrás y acepte las normas del App Store. Actualización 1: Un lector hizo la observación sobre este artículo en el grupo oficial de eliax en Facebook de que Microsoft oficialmente se ha unido a la batalla apoyando a Epic, y es bueno que entiendan por qué: Microsoft, similar a Epic, quiere que Apple le de acceso a instalar un App en el iPhone, iPad y Apple TV que daría acceso remoto a los juegos de Microsoft en la nube, sin pagarle un centavo a Apple, a lo que Apple también se ha negado. Actualización 2: Similar a Microsoft, Facebook también simpatiza con Epic, y por la misma razón que Microsoft: Facebook quiere que Apple le permita poner su tienda de mini-apps y juegos dentro del App Store, sin pagarle un centavo a Apple, cosa que como podrán entender es inaceptable para Apple. Actualización 3: En primera audiencia la jueza a cargo del caso dijo que "está más a favor de Apple" en este caso aunque no completamente (eso quizás signifique que permitiría que Apple continue bloqueando el juego Fortnite si Epic no se acopla a las reglas del App Store pero que quizás impida que Apple bloquee otros juegos que utilizan el Unreal Engine de Epic), y que dictará una sentencia "a futuro". Actualización 4: La cuenta de Epic Games en el App Store ha sido oficialmente cerrada por Apple ya que Epic decidió no apegarse a las reglas aún después de Apple cederle dos semanas de gracia. A tal fin, nuevos jugadores de Fortnite no podrán descargar el juego en iOS, y todos los otros juegos de Epic también fueron removidos del App Store. Actualización 5 del 9 de Sept. 2020: Epic ahora quiere que Apple le permita regresar al App Store, pero no quiere ceder en tener que pagar como todos los demás clientes en la tienda de Apple. Debido a esto y la insistencia de Epic, Apple ha decidido contra-demandar a Epic, y parte del documento legal que se envió a las cortes incluye estos dos párrafos escrito por abogados de Apple (que pongo en inglés y después traduzco para los que no sepan el idioma): ″Epic’s lawsuit is nothing more than a basic disagreement over money. [...] Although Epic portrays itself as a modern corporate Robin Hood, in reality it is a multi-billion dollar enterprise that simply wants to pay nothing for the tremendous value it derives from the App Store.” Traducción: "La demanda de Epic no es más que un desacuerdo por dinero. Aunque Epic se quiere presentar como un Robin Hood corporativo moderno, lo cierto es que en realidad es una empresa que genera miles de millones de dólares que sencillamente no quiere pagar un centavo por el tremendo valor que deriva del App Store." Y continúan: Apple is now going one step further, asking the court to hold Epic liable for breach of contract and other counts, seeking restitution of all money Fortnite collected through its payment system, and seeking a permanent injunction banning its external payment mechanism in all apps, including Fortnite. Traducción: "Apple ahora tomará un paso más, solicitando al tribunal que responsabilice a Epic por incumplimiento de contrato y otros cargos, y que buscamos restitución de todo el dinero que la empresa colectó por su sistema de pagos [circundando el sistema de pago de Apple que contractualmente estaba obligada a utilizar], y buscando una orden judicial permanente que prohíba su mecanismo de pago externo en todas sus aplicaciones, incluyendo a Fortnite." Noten que Epic ya ha sentido el duro golpe de no existir en el App Store, reduciéndose sus ventas significativamente en el período que ha estado fuera del App Store, lo que de por sí es evidencia de que la empresa obtiene un valor por utilizar la plataforma de Apple, y razón por la cual Apple requiere ser remunerada por proveer ese valor. autor: josé elías |
37 comentarios
1,504,125 vistas |
Apple / OS X , Google , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Video-juegos , Windows / Microsoft |
miércoles, julio 22, 2020
|
Hola amig@s lectores,
Como ya sabrán, Apple recientemente anunció que sus Macs transicionarán a sus propios procesadores que ha bautizado como "Apple Silicon", y aunque no han proveído información detallada al respecto noten que llevo desde el 2007 prediciendo esta integración (ver los enlaces de "previamente en eliax" al final de este artículo en donde verán los principales artículos históricos que he escrito acá en eliax sobre el tema), y por tanto tengo una muy buena idea de todo lo que ocurre tras bastidores (ayudado también por contactos en ciertas empresas, rumores de fuentes confiables, y dado que mi profesión de carrera universitaria fue precisamente el diseño de microprocesadores, tema que entiendo en profundidad). Habiendo hecho esa breve introducción déjenme aclararles algo de entrada: Apple no está fabricando los típicos chips de arquitectura ARM para sus Macs (ni tampoco para sus otros productos que utilizan Apple Silicon como son el iPhone, iPad, Apple Watch, AirPods, Apple HomePod, o Apple TV), y para entender eso deben entender cómo funciona el ecosistema ARM, que es muy diferente al ecosistema tradicional de Intel (y AMD) con la arquitectura x86 y sus derivados recientes como X86-64. En el mundo de x86, empresas como Intel y AMD diseñan sus chips, los fabrican (sea en sus propias fábricas, como Intel, o de otros, como AMD) y después los venden a clientes (como Dell, HP, Lenovo, etc) que después integran esos chips adentro de sus productos. Bajo este modelo el cliente de x86 por lo general no tiene muchas opciones a la hora de decidir qué va dentro de esos chips (que por lo general son CPUs, o el cerebro principal del sistema) y a veces GPUs (encargado de gráficos, y más recientemente también de temas como Inteligencia Artificial de forma parcial). Sin embargo empresas como Intel lo que hacen es que tienen una gran diversidad de familias (como la i3, i5, i7, i9, Xeon, etc) y modelos (como por ejemplo el Core i9-10980HK), con la esperanza de que algunos de esos modelos le serán de utilidad al mercado dependiendo de las necesidades (como por ejemplo, laptops, o potentes servidores, o PCs para jugar, etc). En el mundo ARM la situación es totalmente distinta. La empresa que mantiene la arquitectura ARM es ARM Holdings, cuyo propietario es actualmente el SoftBank Group de Japón (curiosamente, noten que Apple fue de las 3 empresas que iniciaron a ARM, junto con Acorn Computer y VLSI Technology). En este mundo, la empresa ARM no fabrica sus propios chips, sino que licencia sus diseños en dos modalidades muy particulares. Bajo la primera modalidad, ARM diseña chips y licencia sus planos a empresas que deciden utilizar esos diseños para sus productos. Así que por ejemplo alguien como Samsung puede licenciar los planos de un modelo específico de chips de ARM, y después procede a enviar esos planos a una fábrica para que les fabrique millones de chips con esos planos y después poner el producto en sus celulares. ARM también provee servicios donde bajo ciertos arreglos puede ligeramente modificar algunos aspectos de sus diseños para clientes en particular (Huawei por ejemplo puede solicitar a ARM que le provea planos de un chip que contenga 4 núcleos de CPU de alta potencia y 4 más de bajo consumo energético). Pero lo importante a entender es que bajo este modelo los creadores de productos (como Samsung o Huawei) simplemente licencian los planos de tales chips, y después es labor de ellos buscar un fabricante que se los fabrique. El otro tipo de licencia, que muy pocos tienen, siendo Apple una de esas exclusivas empresas, no es para licenciar los planos genéricos de los chips que implementan la arquitectura ARM, sino para licenciar lo que se llama el "ISA" (Instruction Set Arquitecture). Les explico a continuación ya que esto es extremadamente importante lo entiendan... Cuando alguien habla de "X86" o "ARM" se refiere por lo general al paquete completo, al producto final, al chip ya empacado y listo para utilizarse en un celular o tableta. Sin embargo, en la jerga de la industria esas palabras tienen significados muy diferentes dependiendo de a qué nos estamos refiriendo. Una cosa es un chip que implementa una arquitectura, otra es la arquitectura en sí. En el mundo de los microprocesadores uno generalmente inicia con el ISA, que no es más que el lenguaje que hablaría el microprocesador a bajo nivel. Así que por ejemplo, imaginemos una arquitectura de microprocesador que implementará este ultra-sencillo juego de instrucciones (ISA): - ESCRIBIR (algo en memoria) - MODIFICAR (algo en memoria) - COPIAR (de un lugar en memoria a otro lugar) - BORRAR (algo en memoria) - SUMAR (dos números) - CONDICION (para hacer algo dependiendo de algo) Esa lista de 6 "comandos" sería el ISA, o "La Arquitectura del Juego de Instrucciones". En la realidad, obviamente la cosa es muchisisísimo más compleja, pero para fines didácticos este ejemplo es más que suficiente. Ahora bien, asumamos que ese es el ISA de la arquitectura ARM. ¿Qué sucede ahora? Pues obviamente el ISA no es más que una especificación técnica sobre papel, no hace absolutamente nada hasta que alguien haga un diseño (un "plano") que implemente esa ISA en un plano que después se pueda enviar a una fábrica para crear el chip. Y eso es precisamente una de las cosas que hace ARM: La empresa toma su especificación de ISA y diseña planos de chips que implementan ese ISA para distintos mercados. Es bueno notar que ARM hace distintas familias de diseños de sus chips para diferentes mercados, tal cual lo hace Intel, así que por ejemplo ARM tiene familias como son los Cortex-A, Cortex-M, Ethos-N, Neoverse, etc. Es también bueno entender que aunque los chips son diferentes y para distintos mercados (como puede ser desde un super pequeño chip de bajo consumo energético para ser utilizado en un la computadora de un refrigerador, hasta un super potente chip con 8 núcleos para el más reciente celular de Google) que todos esos chips utilizan exactamente el mismo ISA, lo que significa que un programa que pongas en uno de ellos funcionará hasta cierto punto en otro (aunque obviamente de forma más rápida o lenta dependiendo del caso). Y esa es una de las grandes ventajas de ARM: Un desarrollador de software puede utilizar esencialmente las mismas herramientas para desarrollar para una aplicación que va en un refrigerador, hasta una aplicación que va para una nave espacial, ya que la arquitectura de bajo nivel es la misma. Pero la otra cosa que hace ARM (como es el caso de Apple) es licenciar la ISA en sí, para que sea entonces el cliente de ARM (en este caso Apple) quien diseñe sus propios planos basados en la arquitectura ISA de ARM. Y es por eso que aunque Apple licencia el ISA de ARM, que técnicamente hablando al bajo nivel los chips de Apple son totalmente diferentes a los chips ARM genéricos que utilizan empresas como Samsung, Huawei y Google en sus productos. Y eso es extremadamente importante entenderlo porque muchos se preguntan que cuál es la fórmula mágica que permite que año tras años los chips "ARM" de Apple en sus celulares y tabletas sean considerablemente superiores en rendimiento y consumo energético a los de la competencia, y la razón es que Apple ha invertido miles de millones de dólares en contratar (literalmente) a los mejores diseñadores de microprocesadores del mundo, con la finalidad de tener su propia implementación del ISA de ARM al que llama "Apple Silicon". Pero antes de explicarles qué otras cosas está haciendo Apple para hacer que su Apple Silicon sea mucho más eficiente que los chips genéricos de ARM, es bueno responder también la pregunta "¿Por qué ARM en primer lugar y no x86?" Es decir, qué hizo que empresas como Apple, Samsung y miles de otras decidieran adoptar a ARM para sus productos... Y la respuesta es sorpresivamente sencilla: Eficiencia, costos y simpleza. Sucede que filosóficamente han existido tradicionalmente dos escuelas de pensamiento sobre cómo diseñar microprocesadores. La primera escuela es llamada CISC, y la segunda RISC. Intel es de la vieja escuela de CISC que significa "Complex Instruction Set Computing", y ARM es de la nueva generación de RISC (Reduced Instruction Set Computing). En CISC la idea es diseñar microprocesadores que con una sola instrucción puedan hacer varias operaciones a la vez, mientras que RISC prefiere la filosofía de preferir hacer varias operaciones simples una detrás (o en paralelo, de ser posible) de las otras. Aunque ojo que hoy día ambas arquitecturas han tomado prestado de la otra, pero para fines de este artículo lo que les dije es lo primordial. Como analogía didáctica, imaginen un ejemplo en donde un usuario quiere sumar 4 números que llamaremos A, B, C y D. En el mundo CISC de Intel es posible que exista una instrucción que sume los 4 números de una sola vez, con una instrucción similar a esta: SUMAR 4 NÚMEROS: A + B + C + D = X Pero en el mundo RISC quizás solo tengamos una simple instrucción que sume dos números a la vez, por lo que tendríamos que ejecutar varias instrucciones simples secuenciasmente para llegar al total, similar a esto: SUMAR 2 NÚMEROS: A + B = X SUMAR 2 NÚMEROS: X + C = X SUMAR 2 NÚMEROS: X + D = X Ahora bien, a simple vista se puede perdonar que alguien ingenuamente opine que la primera forma de sumar los números es "la más eficiente", puesto que se hace todo en un solo paso. Sin embargo, y como dice el viejo dicho, el demonio está en los detalles... Sucede que en el primer ejemplo, así como Intel tendría una instrucción especial para sumar 4 números, lo más probable es que también tenga que tener dos instrucciones más adicionales en el chip, una para sumar grupos de 3 números, y otra para sumar grupos de 2 números, como esto: SUMAR 4 NÚMEROS: A + B + C + D = X SUMAR 3 NÚMEROS: A + B + C = X SUMAR 2 NÚMEROS: A + B = X O en otras palabras, mientras que la arquitectura RISC tiene un solo comando que se llama "SUMAR 2 NÚMEROS" y que reutiliza una y otra vez para sumar la cantidad de números que uno desea, la arquitectura CISC tiene comandos específicos para sumar entre 2, 3 o 4 números (y obviamente puede combinarlos igual que RISC para múltiples operaciones). ¿Qué significa eso? Pues significa lo siguiente: 1. Implementar la instrucción de sumar dos números en ambas arquitectura posiblemente tome una cantidad de circuitos (y correspondiente espacio) en el chip muy similar. Pero para implementar la suma de 3 o 4 números la arquitectura CISC va a necesitar de más circuitos y más espacio en el chip (en nuestro ejemplo, entre 3 y 5 veces más espacio debido a que también se necesita espacio para guardar todos los números que se suman a la vez). 2. Debido a que un chip CISC necesita muchísimo más espacio que un chip RISC para poder hacer computación, eso significa también que (1) son más complejos y (2) más grandes ya que ocupan mucho más espacio. 3. Debido a que los chips CISC son más grandes, eso también significa que son mucho más caros para fabricar, ya que los chips se fabrican en wafers (similares a un disco compacto pero sin el agujero del centro), y mientras menos chips quepan en un wafer mayor su costo de fabricación y de paso mayor la posibilidad de que tengan impurezas lo que daña los chips y por tanto sube aun más los costos de fabricación. 4. Pero como si fuera poco, el hecho de que los chips son más grandes, y que de paso las instrucciones del ISA de un chip CISC manipulan más datos a la vez, eso también significa que (1) consumen significativamente más energía y (2) por tanto se calientan mucho más, lo que para ciertas aplicaciones es un grave problema ya que se necesitaría de enfriamiento activo (como son los ventiladores conectados directamente en los chips como es común en las PCs de Intel con Windows). Habiendo dicho todo eso, espero que vayan entendiendo por qué entonces al inicio de la revolución móvil que inició en los días del primer iPhone (y los anteriores líderes como fueron el Palm Pilot o Blackberry) los fabricantes de tales dispositivos decidieron irse mejor con ARM (y su arquitectura RISC) ya que los microprocesadores ARM son (1) más baratos, (2) consumen menos energía, y (3) ocupan menos espacio. Y como pueden ver estos son tres requerimientos esenciales para aplicaciones móviles hoy día. Intel, lamentablemente, no predijo todo esta revolución móvil que se venía llegar tarde o temprano, no se adaptó a tiempo a las nuevas tendencias, decidió seguir pensando en PCs de escritorio y laptops tradicionales con Windows, y cometió de paso su error más monumentalmente nefasto al no solo no decidir crear una arquitectura que compitiera realmente contra ARM, sino que de paso fue tan torpe como para vender una licencia de ISA ARM que poseía (de las muy pocas que existían en el mundo, y que de no haberla vendido, hubiese podido estar fabricando sus propios chips ARM hoy en día). Noten que debido a todo eso, hace 10 años escribí un artículo titulado "Análisis eliax: La arquitectura ARM se convierte en la más grande amenaza al negocio de Intel", pero parece que los ejecutivos de Intel no leían a eliax en ese entonces... Pero las ventajas de ARM no se quedan ahí. A diferencia de los chips x86 cuyos únicos diseñadores son Intel y AMD, en el mundo ARM un cliente de ARM puede solicitar que en el mismo chip se integre también todo tipo de otros diseños y módulos, como por ejemplo integrar un GPU o un procesador de señales dentro del mismo chip, para así hacer todo más eficiente aun y de mucho menor costo. Y es ahí en donde viene el concepto (que encontrarán en donde sea que lean estos temas) de un "SoC". Un SoC (System on-a Chip) no es más que la técnica de poner varios microprocesadores que usualmente estarían empacados en chips diferentes, dentro de un solo chip. En el mundo x86 esto también existe pero de forma muy limitada, como por ejemplo los chips de Intel que vienen con un GPU integrado, pero en el mundo ARM eso se lleva a todo un nuevo nivel ya que ARM le da permiso a cualquier fabricante de integrar cualquier otro circuito personalizado que desee dentro de sus diseños. Y es bueno notar también que cuando empacas varios diseños de microprocesadores en un solo chip que las distancias de comunicación interna se reducen considerablemente mejorando de forma sustancial el rendimiento de interacción entre las partes. Y todo esto nos lleva de regreso a Apple... A diferencia de (por ejemplo) los fabricantes de equipos Android que están a la merced de ARM para diseñar sus propios módulos opcionales para incluir en un SoC, o de tener que contratar a terceros que les provean esos módulos en forma de "IP" (cuando lean "IP" en este contexto no están hablando de "dirección IP de Internet", sino de "Intellectual Property, es decir, planos de circuitos que son propiedad intelectual de sus diseñadores y que te venden o licencian), o en algunos casos de tener que contratar de forma interna o externa a expertos que les diseñen esos componentes adicionales, mientras que Apple por su parte lo que ha hecho es que dentro de su propia empresa ha creado toda una división de diseño de microprocesadores cuyo único cliente es Apple mismo. Y esto, tiene implicaciones profundas... Para empezar, Apple fabrica cientos de millones de productos cada año, y todos utilizan y utilizarán su propio Apple Silicon, lo que le permite lograr una extremadamente eficiente economía de escala, ya que tiene el uso y consumo de tales chips garantizados. Debido a que Apple es el único "cliente" de Apple Silicon, eso significa que los diseñadores de esos chips están diseñando circuitos exclusivamente para las necesidades de Apple y de nadie más. Eso a diferencia de los diseños genéricos de ARM, que por pura necesidad deben ser lo más genéricos posibles ya que deben satisfacer las diversas necesidades que pudieran tener los distintos clientes que licencien esos diseños (es el caso similar con el sistema operativo Android, debe ser lo más genérico posible para poder ser utilizado en equipos de diversos fabricantes y por tanto por motivos lógicos y técnicos jamás podrá ser tan eficiente como lo es iOS por ejemplo en un iPhone). Así que por ejemplo, ARM no tiene el menor incentivo en crear circuitos de alta eficiencia para escáners 3D de reconocimiento facial, ya que solo tendría uno que otro cliente para esa aplicación (grandes como Samsung o Huawei que puedan invertir en eso), y por tanto prefiere mejor que tales fabricantes implementen esas funcionalidades en software en vez de hardware. Eso significa también que los chips genéricos de ARM tienen incluso "circuitos de más" que están ahí para satisfacer al más común denominador, que son diseños que aunque son optimizados para un bajo consumo energético y cierto poder de procesamiento, no están optimizados para las necesidades de un cliente en particular. Un ejemplo sería que la nueva versión de Android soporte escáneres faciales en 3D de forma nativa (sin que un integrador como Samsung o Huawei tenga que hacer su propia implementación sobre el Android base). Sería genial si ARM pudiese implementar los algoritmos ultra-demandante de procesamiento de CPU que este tipo de funcionalidad demanda, en hardware, para que sea más eficiente en términos de velocidad y consumo de memoria y energético, pero ARM no tiene incentivo de hacer tal cosa ya que asume que empresas como Samsung o Huawei utilizarán sus talentos internos para proveer u obtener módulos de IP que puedan integrar con los planos de ARM, y al menos que todo el mercado empiece a demandar tal funcionalidad ARM no levantará un dedo, y para cuando lo haga ya Apple habrá implementado lo mismo par de años antes. Un buen ejemplo de esto fue la movida de chips ARM de 32 bits a 64 bits. Fue Apple (y asombrosamente, no ARM) que lanzó el primer procesador ARM de 64-bits en el 2013, y el mundo Android tuvo que esperar casi 3 años después para poder tener algo similar viniendo de ARM. Y todo esto nos trae de re-regreso a Apple: El único cliente de Apple Silicon es... Apple. Si Apple le dice al equipo de ingenieros de Apple Silicon que en par de años planean lanzar unas gafas de Realidad Aumentada y que necesitan poner circuitos dedicados en sus chips para que los algoritmos que utilizarán esas gafas y los iPhones del momento puedan lidiar de forma eficiente con el flujo de datos que eso genera, eso más que una sugerencia sería una orden, y 12 meses después pueden apostar a que los nuevos iPhones y diseños de Apple Silicon ya contendrán circuitos dedicados para esa tarea. Esa es la razón principal por la cual el iPhone SE que cuesta US$400 ha sido comprobado que es mucho más rápido que el celular más caro de Samsung que cuesta cerca de US$1,500 dólares. Y es la misma razón por la cual un iPhone con 3GB de memoria RAM funciona marcadamente más fluido que un celular Android con 6GB de RAM, ya que en el ecosistema de Apple todo está integrado eficientemente y diseñado como un "todo". Esa es también la razón por la cual las baterías de los celulares iPhone son por lo general de menor capacidad que los celulares genéricos Android y aun así "misteriosamente" duran la misma cantidad de horas funcionando. Tiene que ver con el hecho de que en Android muchas de las funcionalidad básicas ejecutan en software y no en hardware de bajo nivel, lo que aumenta su consumo energético y los hace más lentos de paso. Un buen ejemplo de esto es el módulo de seguridad de Apple, el Digital Enclave. Este es un chip propietario de Apple que en tiempo real cifra todo lo que haces en tu iPhone, iPad o Mac, sin afectar ni en un 0.0001% el rendimiento de lo que hace tu dispositivo ya que todo el cifrado ocurre en circuitos dedicados creados especialmente para tal fin, dejado a tu dispositivo seguir trabajando en otras cosas. Esta es también la razón por la cual quien no entiende de estas cosas no se debe dejar llevar de benchmarks (programas que miden la velocidad de tu dispositivo) cuando comparan cosas muy diferentes como son los iPhones o Android. Aunque en actualidad prácticamente todos los benchmarks indican que los dispositivos de Apple son más potentes que la competencia, lo cierto es que esos programas no son un indicador del rendimiento real del sistema cuando pones en el paquete todas las optimizaciones que hace Apple tras bastidores. Lo que sí tiene más sentido es comparar un benchmark de un celular Android con otro Android, o un modelo de iPhone vs otro modelo de iPhone. Habiendo escrito esta kilométrica explicación, esto nos lleva finalmente al tema de moda hoy día: Apple Silicon en Macs... Muchos se le han reído en la cara a Apple con este anuncio alegando que "Apple planea utilizar un simple chip de celular en una computadora de trabajo serio, ¡nos jodimos!", pero les puedo asegurar que todo el que dice eso no sabe absolutamente nada de microprocesadores, o de lo que ocurre tras bastidores como les he explicado a ustedes en este artículo, o son simples haters que ya tienen nuevo material para hacer sus aburridas vidas menos miserables, o sencillamente son el tipo de personas que repiten como loros todo lo que leen en Internet sin revisar fuentes o investigar de lo que están opinando. Y lo primero que les voy a decir sobre Apple Silicon en Macs es lo siguiente: Prepárense para una gran sorpresa. Una buena sorpresa. Para los que no lo sepan, Apple ya ha entregado decenas de miles de "kits de transición" a desarrolladores de aplicaciones para que vayan adaptando sus aplicaciones a Apple Silicon en Macs, y los resultados no pudieron ser más positivos... Para iniciar, el kit contiene lo que es esencialmente una Mac Mini con el chip A12Z Bionic de Apple utilizando una versión beta de macOS 14 Big Sur. Sucede que ese chip es el utilizado en el iPad Pro de hace dos años atrás, y aún así los benchmarks (para los que les gusta comparar) indicen que esa Mac Mini con un chip no optimizado de hace dos años atrás obtiene una calificación de 4669 puntos en su CPU, comparada con la Surface Pro X de Microsoft que viene con un procesador Intel i5 que sacó una calificación de 2966. Pero eso no es nada: Sucede que el kit de Apple sacó esa calificación de 4669 corriendo en modo de emulación, es decir, el programa de benchmark en la Mac no estaba corriendo código nativo como el que correrá en las Macs reales cuando estas salgan a la venta a fin de año, y de paso estaba utilizando (reitero) un chip (1) de hace dos años atrás, (2) destinado para una iPad, y (3) no optimizado para Macs. ¿Qué significa todo eso? Pues para empezar podremos esperar que lo que sea que Apple tiene pensado para las nuevas Macs será marcadamente más potente que ese chip de iPad, y si nos llevamos de rumores tras bastidores esos nuevos chips vendrán con 12 núcleos (en vea de los tradicionales 2 o 4 núcleos en las Macs con Intel), lo que aumentará aun más su poder. Y lo mejor de todo (y ahora entenderán mejor todo lo escrito hasta ahora) esos chips de Apple Silicon vendrán con circuitos especializados específicamente creados para optimizar las funciones más comunes y/o importantes de macOS (cosa que Apple no le podía solicitar a Intel para sus chips x86-64), lo que aumentará aun más su rendimiento. De paso, esperen que las MacBooks de Apple ahora por fin dejarán de ser tan calientes (quien se haya puesto una MacBook Pro en sus piernas para trabajar sabe exactamente a lo que me refiero) y sus baterías pueden estar seguros que se extenderán considerablemente. Y esto de paso también incrementará los márgenes de ganancias para Apple (que aunque muchos se quejen, es precisamente lo que permite que Apple haga estas innovaciones), lo que al menos le da un colchón de costo a Apple para si la competencia se pone fuerte en un futuro esta pueda bajar sus precios cómodamente. Todo esto de paso significa también que tecnologías que tradicionalmente estaban destinadas a iPhone y iPad llegarán más rápidamente a Macs. Yo por ejemplo espero que las nuevas Macs vengan con FaceID para permitirme dejar trabajar con yo solo estar frente a mi máquina sin nececidad de entrar claves (cosa que ya puedo hacer con mi Apple Watch en combinación con mi Mac, pero sería mejor que no dependa ni de eso para entrar directo a trabajar, como lo hago con mi iPhone y iPad). Habiendo dicho todo eso, tengo que también aclararles algo que para algunos resultarán desagradable: Debido a las obvias diferencias entre el ISA de Intel y ARM, las nuevas Macs ya no podrán ejecutar Windows de forma nativa (con BootCamp), y por otro lado emuladores de Windows en x86 (como VMWare, Parallels Desktop y Virtual Box) tendrán que ser recreados para poder emular las instrucciones x86 en ARM (en actualidad ese paso no era necesario ya que los emuladores simplemente pasaban las instrucciones de Windows directo al CPU de la Mac que ya era x86). ¿Qué significa ese tema con Windows? Pues para empezar a Apple no creo le importe mucho ya que por lo general los que quieren el uso exclusivo de Windows no compran una Mac para tal fin por motivos de costos. Similarmente los gamers (comunidad de video-juegos) tradicionalmente nunca han comprado Macs para tal fin. Eso solo deja a los que compran una Mac como computadora principal y utilizan a Windows para temas de desarrollo de software u otros trabajos, y la realidad es que la gran mayoría de estos (yo incluido) no optan por BootCamp sino por virtualizar a Windows dentro de macOS. Así que la única incógnita que queda es qué tan bien podrán estos virtualizadores emular a Windows cuando tendrán que traducir en tiempo real las instrucciones de x86 a ARM en tiempo real, y para esto hay un par de respuestas potencialmente esperanzadoras... La primera es que Apple también anunció que incluirá un Hypervisor super avanzado en las nuevas Macs, con características que a la fecha solo existían en ambientes de servidores avanzados. El Hypervisor de Apple esencialmente permitirá particionar tu Mac en varias Macs virtuales de forma ultra-eficiente, y en donde cada Mac virtual podrá ejecutar otras versiones de macOS u otros sistemas operativos en paralelo (Apple habló especificamente de Linux como ejemplo), lo que será una mucho mejor manera de virtualizar en macOS que en actualidad. Y la segunda es que Apple muy bien puede crear circuitos especiales en Apple Silicon diseñados para hacer la traducción de x86 a ARM más eficiente (algo que si tuviera que apostar, diría ya está implementado). Así que como pueden ver, esto de Apple Silicon no es algo que Apple hizo a la ligera, sino algo extremadamente bien pensado que Apple ha venido cocinando desde años, y el futuro solo se pondrá mejor... Finalmente, es bueno mencionar mi predicción de enero 2007 en donde escribí (entre otras predicciones): "[...] imagínense que dentro de 5 años el iPhone sea tan poderoso y tenga tanta memoria como las computadoras personales mas potentes de hoy día. Eso significaría que con agregar un teclado, ratón y pantalla externa (todos inalámbricos), que no hay razón para que el iPhone no sea nuestra computadora personal en cualquier lugar." Esa visión, ahora que un iPhone podrá ejecutar macOS (si Apple así lo decide), ya está a la vuelta de la esquina. Similarmente y como he predicho antes, no me sorprendería que ahora que Apple ya tiene todos sus productos bajo una misma arquitectura que ahora decida crear una versión universal de su sistema operativo a la que llamo "appleOS" y que las distintas versiones para iPhone, iPad, Mac etc sean sencillamente variaciones o "Editions" de esta. ¿Y ustedes, qué opinan de todo esto? Si tienen preguntas o quieren que les aclare o expande algo, o tienen algún comentario adicional, escriban abajo y como siempre les contestaré en la brevedad. autor: josé elías |
37 comentarios
1,502,025 vistas |
Apple / OS X , Hardware , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software |
jueves, mayo 21, 2020
|
Hola amig@s lectores,
Hoy es el 15 aniversario de #eliax y quiero celebrar iniciando con una reflexión: Quiero que imaginen que están en el último día de sus vidas, en sus últimos minutos, en sus últimos respiros... Y la pregunta es, al final de ese día, y cuando ya sepan que van a morir, y cuando empiecen a reflexionar sobre la vida y sobre cómo la vivieron, ¿estarán satisfechos con lo que hicieron con ella? ¿Sentirán que la desperdiciaron o que aprovecharon cada momento? ¿Se arrepentirán y morirán tristes sabiendo que ya no hay marcha atrás, que ya no queda tiempo, o morirán satisfechos sabiendo que lo dieron todo independientemente de los resultados o de lo que dirían los demás? ¿Vivieron para ustedes mismos, o vivieron para sus amigos, sus compañeros de trabajo, sus padres, o la sociedad en general? ¿Fueron… felices? Esas son las preguntas que a través de los años he tratado de inculcarle a los lectores de #eliax, pensamientos críticos netamente filosóficos de índole existencialista, disfrazados como noticias de ciencia y tecnología. Así que cuando les hablo del Big Bang realmente no me interesa si el famoso Big Bang haya existido tal cual aparenta decirnos la ciencia, sino que se cuestionen el origen de su propia existencia. Cuando les hago anécdotas como la de Alan Turing, padre de la computación moderna, y posible responsable de finalizar la Segunda Guerra Mundial al permitir descifrar la maquina de cifrado de datos Enigma de los Nazis, pero quien a la misma vez era gay y fue “premiado” con salvar la vida de decenas de millones de personas siendo humillado y castrado químicamente por su orientación sexual (terminó suicidándose), no estoy tratando de enseñarles historia, sino a tener tolerancia y respeto hacia la vida de otros, por más diferentes que estos sean de nosotros. Y si creen que cuando les hablo de la Evolución de Darwin creen que tengo algún interés en enfrentarlos contra creencias religiosas, se equivocan, pues mi objetivo es hacer que se cuestionen de dónde surge toda esta belleza que vemos a nuestro alrededor y cómo poder explicarla, y de paso, apreciarla mejor... Y toda esa forma de pensar fue un regalo que obtuve de una persona muy especial en mi vida, de quien hablo en algunas de mis conferencias y quien cambió mi vida para siempre. Su nombre era Rafael Junco, y le decíamos cariñosamente el Profesor Junco, en la escuela de secundaria George Washington High School en la ciudad de New York, a finales de los 1980s e inicios de los 1990s. El Profesor Junco era nuestro profesor de Español, oriundo de Cuba, un ser humano con unas cualidades que casi me sacan las lágrimas cada vez que pienso en él, y que aparte de haber sido un increíble profesor de Español (gracias a él nuestra humilde escuela ganaba año tras año los campeonatos nacionales de gramática y literatura en Español, donde yo mismo aporté varios primeros lugares en unos años), era sobre todo un filósofo que nos hacía pensar. Con él fue que los que tuvimos la increíble suerte de caer en su aula aprendimos a cuestionarnos las cosas, a preguntar “¿por qué?”, a ver las cosas desde distintos ángulos, y a entender que aunque todos somos diferentes en apariencia y capacidades, que al final de cuentas todos somos humanos, juntos acá en esta pequeña esfera azul, como bien hubiese dicho otro de mis héroes, Carl Sagan. Lamentablemente, tiempo después de yo estar en la universidad (me animé a ir a Boston, y él tuvo mucho que ver con esa decisión), y regresar a verlo a la escuela para darle las gracias por haber cambiado mi vida, me topé con la noticia de que había fallecido de HIV (él era gay, y vivió marginado toda su vida por una sociedad que en esos días no le permitía expresar su sexualidad libremente, y fue una de las víctimas de la epidemia del SIDA en New York en esos años). El día que me enteré de su muerte fue uno de los días más tristes de toda mi existencia. Incluso, el yo nunca haber tenido la oportunidad de decirle lo mucho que aprecié todo lo que hizo por mí es posiblemente la única cosa de la cual realmente me arrepiento no poder haber hecho en esta vida. Y todos estos sentimientos nostálgicos me llegan después de recientemente acabar de ver la extraordinaria serie Merlí (sin “n” al final, no confundir con Merlín, el famoso mago de las leyendas medievales), que recientemente concluí en Netflix, y cuyo protagonista Merlí en esa serie es lo más cercano que existe en este mundo al Profesor Junco (no dejen de ver la serie, la califico con un 9.8 de 10). Similar a Merlí, el Profesor Junco nos incitaba a revelarnos contra las injusticias y a ser nosotros mismos y pensar por nosotros mismos y cuestionarlo todo. Después de una de sus increíbles lecturas (en donde les garantizo se aprendía más de filosofía de vida que otra cosa) fue que armé toda una resistencia en mi escuela, logré que abriésemos la puerta principal de nuestra escuela (anterior a eso nos hacían entrar por detrás como ganado), y logré que despidieran a la Directora de la escuela por racista. Y esa rebeldía siguió conmigo toda la vida hasta el día de hoy. Quien sea que haya leído la mayoría de los más de 10,000 artículos que escribí por acá ya sabe muy bien que no soy una persona de seguir normas “porque sí”, y que trato de cuestionármelo todo, y que no tengo pelos en la lengua. Todo eso provino de este increíble profesor del cual me hubiese gustado tener tecnología para salvar su mente y que esta siguiera influenciando a futuras generaciones de estudiantes y personas en general. Lamentablemente, esa tecnología por ahora no existe, pero no crean por un segundo que su influencia, sus ideas, y su forma de enseñar fallecieron con él. En cada uno de los más de 10,000 artículos acá en eliax hay una parte del Profesor Junco. Me tomó tiempo darme cuenta pues lo he hecho siempre inconscientemente, pero eventualmente me percaté que heredé de él una forma muy particular de enseñar, a lo que llamo “enseñar sin enseñar”, o el arte de transmitir ideas de forma inconsciente a las personas mientras hablo de otros temas. Y ustedes también me lo han dejado saber. Todavía unos 6 años después de dejar de escribir a diario en el blog muchos me continúan escribiendo dándome las gracias por haberles cambiado la vida, por enseñarles a tolerar otras ideologías o formas de pensar, por darles el coraje para salir del closet, por incentivarlos a estudiar lo que realmente querían y no lo que sus padres querían, o por sencillamente animarlos a hacer algo con sus vidas en ves de ser ovejas pastoreadas por la sociedad. En resumen, por incentivarlos a convertirse en mejores personas y en tener el coraje de ser ustedes mismos y pelear por sus sueños, y esos mensajes, a veces provenientes de personas que conocí por años a través del blog (muchas veces sin haberles nunca visto la cara), y a veces de forma anónima, han sido la mayor recompensa que haya podido recibir por mi dedicación a mi proyecto de vida #eliax. Sin embargo, quiero que sepan que de alguna forma ustedes indirectamente también le han estado dando las gracias a mi Profesor Junco, pues en muchas formas yo he servido de vehículo para que sus ideas e increíble forma de enseñanza llegara a ustedes. Y les confieso que a veces me pregunto a cuántas personas habrán llegado sus enseñanzas, y qué impacto han tenido esas personas en la forma de cambiar el mundo para lo mejor, y aunque no hay forma de yo poder medir ese impacto, de lo que sí estoy seguro es que el Profesor Junco dejó el mundo un poquito mejor que como lo encontró, y ese también ha sido uno de los objetivos de mi vida, un objetivo que ojalá algunos de ustedes también quieran compartir conmigo. Gracias, Profesor, por esas sabias enseñanzas, y gracias a ustedes los lectores de eliax por ser receptivos a ellas... autor: josé elías |
20 comentarios
1,478,437 vistas |
Educación , Psicología |
"Muchas gracias por compartir el video con nosotros, tu sabiduría y forma de ver la vida.
Más vídeos así harían esta web aun más grande."
Más vídeos así harían esta web aun más grande."
en camino a la singularidad...
©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax