Cámaras Digitales
miércoles, septiembre 4, 2024
|
Hola amig@s lectores,
Si les dijera que este artículo completo fue escrito por una Inteligencia Artificial (IA), ¿me lo crearían? Hace apenas dos años atrás quizás no, pero con la llegada de una nueva generación de IAs del tipo LLM (Large Language Model) como ChatGPT es posible que muchos de ustedes no sepan qué responderme. Y eso, es un problema. Aunque por un lado estamos adentrándonos en uno de los más emocionantes (sino, el más emocionante) momentos de la humanidad, a la misma vez esto trae consigo un nuevo tipo de problemas, problemas que aunque no son totalmente nuevos (me refiero a la capacidad de hacer creer que algo ficticio es real) sí podemos decir que amplifica de forma exponencial esos problemas anteriores. Como ejemplo, el año pasado se hizo viral una imagen del Papa Francisco aparentemente modelando un abrigo de nieve en una pasarela, y poco después se hizo viral otra imagen de Elon Musk aparentemente enamorado de una mujer cibernética, y recientemente hemos visto personas como Donald Trump utilizar tecnología deep fake e imágenes de famosos creadas enteramente por software para hacer aparentar que esas personalidades apoyan su segunda candidatura presidencial en los EEUU. Pero eso apenas es el comienzo… Nos estamos adentrando a un mundo en donde no vamos poder estar seguros de nada de lo que leemos, vemos o escuchamos, y esto tendrá graves repercusiones sociales de forma masiva, al menos que tomemos medidas al respecto (medidas que sugiero más adelante en este mismo artículo). Imaginen por ejemplo si llega un reclamo a una empresa de seguros, con no solo evidencia de audio de una llamada telefónica pidiendo auxilio, sino además fotografías desde múltiples ángulos del accidente reportado, y hasta video de una cámara de seguridad cercana a los hechos. Hasta hace par de años esta evidencia se hubiese considerado prueba contundente de que el supuesto accidente reclamado realmente sucedió, y la empresa aseguradora hubiese sido obligada a pagar potencialmente millones en daños. Pero, hoy día, ¿cómo podemos estar seguros de que esa llamada telefónica, esas fotos y ese video no fueron generados por las más recientes versiones de programas como Midjourney o Sora de OpenAI? Similarmente, si recibes una llamada de emergencia de un familiar cercano, y la voz es idéntica a esa persona, e incluye incluso el tipo de lenguaje que utilizaría, con las mismas expresiones que caracteriza a esa persona, ¿enviarías algo dinero de ayuda a esa persona para sacarla de un apuro? Si la pregunta anterior les intrigó, noten el caso de un ejecutivo de una empresa multinacional con sede en Corea del Sur, a quienes unos hackers estafaron US$25 Millones de dólares al convencer a alguien en la empresa para que transfiriera esa cantidad de dinero. ¿Y cómo lo lograron? Pues convocaron a una víctima en el departamento de finanzas (que teníala capacidad de hacer transferencias bancarias) a una reunión virtual con el supuesto General General de Finanzas y varios otros ejecutivos de alto nivel de la empresa para discutir un asunto urgente, y sucede que todos los “ejecutivos” de la reunión habían sido personificados con tecnología deep fake para crear avatars/clones de ellos que se veían, hablaban y comportaban como los seres humanos que reemplazaban. Es decir, en esa llamada de videoconferencia grupal, la única persona real era la víctima, y todos los demás integrantes que participaron en la videollamada eran clones digitales de sus otros compañeros de trabajo y superiores de la empresa. Estos avances en Inteligencia Artificial Generativa (IA que genera desde cero cualquier tipo de contenido que puedas imaginar) están proveyendo a una nueva generación de criminales digitales un nuevo conjunto de herramientas para engañar, estafar, atacar, sabotear, sobornar y robar a una escala hasta hace poco inimaginable. Estamos literalmente entrando a un umbral en donde se está haciendo extremadamente difícil (por no decir casi imposible) distinguir lo real de lo falso. Y el gran problema que eso trae es que la sociedad humana desde sus orígenes se mantiene estable en base a una sola cosa: La confianza. ¿Y cómo podrá funcionar una sociedad en donde no exista confianza a nivel personal, profesional, institucional o a cualquier otro nivel? Es decir, ¿cómo sabes que la tienda a la cual le estás comprando algo online es real? ¿Cómo sabes que el portal o app de tu banco no es uno falso? ¿Cómo sabes que con quien estés hablando en una videoconferencia es quien dice ser? ¿Cómo sabes que el video que viste de un ser querido supuestamente haciendo una fechoría es real? ¿Cómo sabes que los resultados de tus búsquedas en Internet son reales? ¿Cómo sabes que el video de tu hija haciendo pornografía no es real? ¿Cómo sabes que la empresa con la cual llevas semanas negociando es real? ¿Cómo sabes que las autoridades gubernamentales que te están demandando un pago de impuestos es real? ¿Cómo sabes que un documento científico que estás leyendo es real y cita fuentes reales y contiene datos reales? ¿Cómo sabes que las noticias que estás viendo es real? ¿Cómo sabes que lo que dice el próximo candidato presidencial es reall? Bajo este nuevo esquema social que estamos entrando gracias a la IA Generativa se hará casi imposible operar, creer o maniobrar, y podríamos fácilmente llegar a un estancamiento social de proporciones épicas. Sin embargo, hay soluciones que podemos implementar como sociedad. La primera es una recomendación que hago a nivel familiar y de amigos cercanos, y es la de crear una palabra o frase clave que solo ustedes conozcan, y que nunca hayan comunicado de forma digital en ningún momento, de modo que si algún día reciben una llamada de emergencia o de alguna otra índole dudosa, ustedes puedan preguntar la palabra o frase clave para verificar la identidad de la persona al otro extremo de la comunicación. Así que por ejemplo, si en una reunión familiar nos ponemos de acuerdo de que nuestra palabra de seguridad será “Segismundo”, y posteriormente recibes una llamada de un familiar aludiendo una emergencia y pidiendo una transferencia de dinero, lo primero que le preguntarías es la palabra clave secreta. Si la persona no pueda contestarla (o al menos decirte el lugar y otros datos del día en que acordaron la clave) eso significa entonces que esa persona está posiblemente siendo personificada por un hacker con tecnología deep fake. La segunda sugerencia es una sugerencia tecnológica que debemos exigir se integre a toda tecnología que capture o genere contenido en cualquier formato (sea texto, sonido, imágenes o videos), y tiene que ver en que desde su misma fuente debemos poder codificar una firma digital que podamos verificar contra alguna fuente. Así que por ejemplo, bajo este esquema toda cámara digital, todo celular, todo micrófono y toda IA que genere imágenes, texto, sonido o video debe poder incrustar información que permita comprobar que el cotenido o fue (1) generado por medios “orgánicos” (como por ejemplo, un video que capturaste en un cumpleaños) o (2) por medios sintéticos (como un video de un cumpleaños imaginario generado por una IA), así como proveer información de su fuente (como el autor, fecha de creación, etc). De esta manera, si vemos una noticia o leemos un libro o artículo, o recibimos una llamada de audio o participamos en una videoconferencia, podemos tener algún grado de certeza de que lo que percibimos es real o sintético y de su actual procedencia. Para esto es necesario desarrollar estándares tecnológicos en la industria para que la información capturada (por ejemplo) por una cámara digital esté cifrada desde el momento que es capturada por su sensor de imagen, y para que una firma digital sea parte de la imagen antes de que esta se almacene o esté disponible para distribuirse, y de paso que en cualquier momento se pueda detectar si el contenido fue alterado en lo más mínimo. Una buena noticia es que ya existe una iniciativa de parte de algunos fabricantes de cámaras y líderes de la industria para crear algo similar, e incluso ya existen algunas cámaras profesionales del mercado con tecnología similar a esto, y de paso ya existe investigación para crear sistemas que incluyan watermarks (“sellos de agua” digitales) en habla generada por IA Generativa, e incluso ya existe una propuesta de ley en el estado de California en EEUU para requerir que todo contenido sintético tenga que venir con un watermark, por lo que poco a poco veremos este tipo de tecnología esparcirse a todo sistema que genere contenido de alguna forma. Y esperemos que estas soluciones ocurran más temprano que tarde, ya que de no ser así nos arriesgamos a que la falta de confianza en nuestros sentidos nos lleven a un caos social con resultados posiblemente catastróficos para la humanidad. - p.d.: Para los curiosos sobre la pregunta que puse al inicio del artículo, no, este articulo no fue escrito por una IA. O al menos eso le digo a ustedes… Actualización El lector Sergio Hernandez hizo una buena observación en los comentarios sobre el tema de firmas digitales, y respondí a su comentario para aclarar que cuando hablamos de una firma de agua digital hablamos de una firma criptográfica basada en el concepto de un Hash (y por extensión en cifrado de datos con llaves públicas y privadas), sin embargo esos son conceptos demasiados técnicos que extenderían demasiado este artículo, lo importante es el concepto de poder verificar la fuente de algo. autor: josé elías |
21 comentarios
202,589 vistas |
Audio / mp3 , Cámaras Digitales , Celulares / Móviles , Ciencia , Derecho Digital , Educación , Futuro Digital , Internet , Negocios , Opinión / Análisis , Predicciones , Psicología , Redes Sociales , Robots & I.A. , Software , Tecno-Seguridad , Tecnología Visual |
jueves, diciembre 23, 2021
|
Hola amig@s lectores,
Después de más de 14 años informándoles sobre el James Webb Space Telescope (JWST por sus siglas en inglés) en artículos como este del 2007, el tiempo por fin ha llegado, y si todo sale bien el próximo sábado 25 de Diciembre 2021 (entre las 7:20am y 7:55am horario de New York) por fin se lanza al espacio, y hoy quiero escribirles sobre su historia, importancia y futuro. Al final del artículo espero tengan una mejor apreciación sobre este monumental proyecto científico y sobre por qué nunca en la historia de la humanidad la comunidad científica estará tan nerviosa como el momento en que se lance este instrumento al espacio y sus posteriores meses de establecimiento en su hogar final. La historia del JWST La ideal del JWST originó en 1989, y entre ese año y el 1994 la comunidad científica empezó a idear, pre-diseñar y debatir sobre cómo podría construirse semejante instrumento. Es bueno destacar que varias de las tecnologías necesarias para su construcción todavía ni existían ni se habían inventado. Después de esa época (que compagina con el éxito y los problemas del Telescopio Espacial Hubble) se inició una etapa de planeamiento, culminando en que para el 2002 se acuñara el nombre James Webb (eh honor al Director de la NASA que estuvo a cargo de las misiones Apollo que llevaron a la humanidad a la Luna) y se otorgara el contrato de su construcción a la empresa Northrop Grumman, que para los que no la conozcan es uno de los más grandes contratistas militares de EEUU, y esencialmente es una empresa que vive de contratos del gobierno de los EEUU, por lo que pueden estar seguros que en la decisión de elegirlos a ellos existió todo tipo de maniobras políticas tras bastidores, y que de existir una empresa privada como SpaceX en ese entonces que la historia hubiese sido diferente (en términos de costos y tiempos), pero esa es una historia para otro artículo... Mientras tanto lo importante a saber es que en ese momento se le puso un presupuesto al proyecto de Mil Millones de dólares (US$1,000MM), con una fecha de lanzamiento del telescopio para el 2010. En ese entonces también ya se hablaba de que si se disparaban los costos por imprevistos que el costo pudiese aumentar a US$3,500MM. En el 2004 inició la construcción de los masivos espejos hexagonales que serían parte distintiva de su diseño. Estos espejos, chapeados en oro puro (para aumentar su sensibilidad a la luz infrarroja) se diseñaron como un conjunto de 18 piezas hexagonales por distintos motivos. El primero es que se hacía menos complejo y costoso fabricar los enormes espejos por separado, pero la razón principal es que no existe cohete en existencia capaz de subir un espejo tan grande, por lo que se hizo un diseño en donde el espejo en forma de colmena de abeja se dobla en 3 partes para que quepa en el cohete, y después se pueda abrir en el espacio a su tamaño de operación. Es bueno notar que la precisión necesaria para que esos espejos se unan en el espacio debe ser inimaginable precisa, con márgenes de error en las millonésimas de un metro, por lo que toda una nueva tecnología de alineamiento se debió de inventar para hacer eso posible. Por la misma razón, no solo el espejo principal, sino que el telescopio completo, fue diseñado de forma tal que este se doblara como una pieza de origami (literalmente), y de desdoble ya en el espacio. Esto de por sí ya representó una complejidad enorme para el diseño del JWST. Notemos que muchos de estos diseños fueron re-pensados en el 2005 cuando se notó que el grado de complejidad iba a ser mucho superior a lo pensado, y se terminó decidiendo utilizar ese año el diseño actual. Sin embargo los cambios de diseño más el entendimiento de la envergadura del trabajo adelante necesitaron de una revisión del presupuesto y la fecha de finalización, los cuales se corrigieron a US$4,500MM y una nueva fecha de lanzamiento del 2013. El trabajo progresó por unos años, de camino topándose con grandes retos tecnológicos por resolverse, culminando esa etapa en un estudio independiente ordenado por El Congreso (de legisladores) de los EEUU en el 2010, en donde se concluyó que no solo iba a ser imposible finalizar el telescopio a tiempo, sino que su precio iba a aumentar significativamente. Al final del día se estimó una nueva fecha de poner el JWST en el espacio del 2015, y esta vez con un precio de US$6,500MM. Sin embargo poco después se hizo evidente que incluso esos nuevos estimados no eran realistas, y la NASA corrigió la cifra a US$8,800MM con una nueva fecha de lanzamiento del 2018. Después de mucho esfuerzo, el JWST fue finalizado en el 2016, pero al realizarse pruebas extensas se descubrieron todo tipo de anomalías y problemas de diseño e ingeniería, culminando esto en que se retrasara nuevamente el lanzamiento al 2019. En medio de todo esto se descubrieron todo tipo de errores humanos (que según la NASA costaron 18 meses de retraso y US$600 Millones de dólares). Y en medio de todos estos retrasos, pruebas y rediseños de último minuto llegó el Coronavirus y la pandemia del COVID-19, poniéndose una fecha tentativa de lanzamiento para el 30 de Marzo del 2021. Estos nuevos retrasos aumentaron el costo en US$800M más, llevando el costo final de construcción del JWST a US$9,600MM y aportaron un nuevo retraso con la nueva fecha siendo Octubre 2021. Sin embargo, meses antes se descubrieron problemas con el cohete Ariane 5 que lanzaría el JWST, y se retrasó nuevamente el lanzamiento para el día 18 de diciembre 2021. Mientras tanto el JWST fue transportado por el canal de Panamá en secreto (debido a su valiosa carga) a su lugar de lanzamiento y pruebas finales en el complejo ELA-3 de la empresa Arianespace, cerca de Kourou, en Guayana Francesa. Sin embargo el JWST no se lanzaría el día 18, ya que días antes una correa que mantenía asegurado el telescopio en el laboratorio de pruebas se soltó inesperadamente lo que provocó una serie de vibraciones en todo el telescopio, y por tanto se tuvo que pausar para revisar que todo estuviese funcionando bien después de ese incidente. La nueva fecha fue Diciembre 22. Sin embargo el día 22 tampoco se iba a poder lanzar al descubrirse un fallo con uno de los cables del sistema de telecomunicaciones del telescopio. Y entonces se mudó la fecha al día 24. Y el día 24 se pospuso una vez más para el día 25 debido a que no se pronosticaban situaciones atmosféricas favorables para el despegue. Así que si todo sale bien, este sábado 25 de diciembre 2021 despega el JWST (si ocurre otro retraso o eventualidad actualizaré este artículo). Riesgos del JWST Y he aquí en donde entran los nervios. El JWST es un instrumento que ha sido soñado durante más de 3 décadas, y su lanzamiento se ha retraso ya por más de 2 décadas, y el tiempo, dinero, diseño, recursos humanos, carreras, investigación, tecnología, sudor y sueños que ha sido invertido en su construcción no puede subestimarse bajo ninguna posible variable de medida. Y dado su gran costo y complejidad no existe un respaldo. O todo sale bien con su despegue y puesto en funcionamiento o se perdió todo ese trabajo (y sueño); sería uno de los días más tristes de la humanidad. Y noten que a diferencia del Telescopio Espacial Hubble que orbita a apenas 547km sobre la Tierra, el JWST estará a 1.5 millones de km de distancia de nosotros, en un lugar en donde se haría imposible en la práctica ir a repararlo (como fue el caso con el Hubble que sufrió de problemas con su espejo principal así como otros problemas que científicos y astronautas pudieron solucionar). Y es bueno notar que el nivel de complejidad del JWST es muchísimo mayor que el Hubble, por lo que muchas cosas puedan salir mal hasta que este empiece a funcionar en ese punto lejano. Según la NASA, hay una lista de más de 1,000 (mil) cosas que tienen que funcionar a la perfección para que el JWST llegue a su destino y empiece a trabajar. Entre las cosas que pueden salir mal se destacan el lanzamiento mismo, la etapa de "descascaro" en donde el JWST será expuesto al espacio por primera vez, la etapa de descoplamiento de la nave Ariane 5, la etapa de impulso hacia su hogar (el llamado Punto Lagrange L2), le etapa de desplegar sus paneles solares, la etapa de despegarse de la base impulsora, la etapa de desplegar y acoplar los elementos de su espejo, la etapa de desplegar su protector solar (una inmensa tela super avanzada más fina que un cabello humano que le dará sombra ante el Sol, y que permitirá que el JWST funcione a una temperatura de unos 50 grados Kelvin que equivale a unos -223° C o -370° F, y notar que del otro lado de la tela la temperatura será de unos 383 grados Kelvin o unos 110° C o 230° F), sus antenas de comunicación (si no podemos hablar con el JWST no podremos darle instrucciones ni ver las imágenes que genere), etc etc etc. Eso sin mencionar sus sistemas de cómputos, almacenamiento, propulsión, guía astronómica, software, y las decenas de miles de piezas que componen todo eso. O en otras palabras, este despegue y subsecuente llegada a su destino final serán los primeros minutos y subsecuentes meses de mas nervios y ansiedad en toda la historia científica de la Tierra. Literalmente hay miles de cosas que pudiesen fallar, y todas deben funcionar a la perfección, y en el primer intento. No hay respaldos ni segundos intentos. Y por eso parte del costo del JWST, pues tenemos que asegurarnos que todo funcione sin margen de error. Si yo tuviese que decir cuáles son las posibilidades de que algo surja mal con el JWST en su lanzamiento y puesta en marcha, diría (preocupadamente) que no es un porcentaje bajo, rondando quizás en el 3 al 5% que es bastante alto para este tipo de misiones. Y si se preguntan, ¿por qué enviar el JWST tan lejos? Pues como siempre, hay una razón científica para ello. A donde enviaremos el JWST es lo que se llama el Lagrange Point L2, que es un lugar en el espacio en donde la fuerza gravitatoria de la Tierra y la del Sol se cancelan mutuamente, por lo que cualquier objeto en ese lugar podrá permanecer tranquilo sin necesidad (o muy poca necesidad) de utilizar combustible (aun así el JWST lleva un poco de combustible para pequeñas maniobras de calibración y ajustes), y es importante además ese lugar ya que al quedar a 1.5 millones de km de la Tierra (y la Luna) no tendrá interferencia de nuestras señales u objetos cercanos de gran tamaño, lo que es esencial para el tipo de astronomía que estará haciendo. ¿Cuándo empezaría a funcionar el JWST? Antes de que el JWST envíe su primera imagen, varias cosas deben suceder. Lo primero es que debe lanzarse y llegar a su destino final en el punto L2, sin embargo ese no es un viaje corto. Le tardará al JWST aproximadamente un mes de viaje llegar a su destino, y varias semanas para estar totalmente desplegado físicamente en su forma final. Después se iniciarán toda una serie de pruebas de todo tipo que incluyen pruebas mecánicas, de consistencia, de vibraciones, de telecomunicaciones, computación, almacenamiento, orientación, data, algoritmos, y sobre todo de sus instrumentos científicos. Esta es una etapa crucial y extensa, que contando todo desde el día de su lanzamiento tomará unos 6 meses. Y solo después de este tiempo y que se haya verificado que todo esté funcionando correctamente se le dará la instrucción del JWST de capturar su primera imagen oficial. El día que esa imagen llegue a la Tierra será un gran día para celebrar en la ciencia y para toda la humanidad. ¿Qué va a estudiar el JWST? Si todo sale bien, la misión principal inicial del JWST será nada más ni nada menos que observar directamente a nuestro universo en el pasado cuando este tenía apenas entre 100 y 250 millones de años (recordemos que el Big Bang se estima ocurrió hace unos 13800 millones de años), por lo que estaríamos observando nuestro universo cuando este era literalmente un bebé. Eso significa que veremos las primeras estrellas mientras se formaban y también veríamos las primeras galaxias y posibles agujeros negros. Esto nos dará información invaluable para confirmar varias teorías científicas y de paso sin duda contribuirá a una nueva serie de descubrimientos, algunos de los cuales cuya naturaleza aun quizás no podemos ni imaginar. En paralelo a esa misión principal, los instrumentos del JWST también nos darán invaluables nuevos datos sobre exoplanetas (planetas en otros sistemas solares), la evolución de las galaxias, información adicional sobre objetos exóticos como agujeros negros, estrellas de neutrones y cuásares, y quizás nos de pistas para resolver temas pendientes como el concepto de la Energía Oscura que aparenta ser responsable de la expansión del universo, así como la posibilidad de averiguar qué es la tal llamada Materia Oscura. Y (literalmente) miles de temas más en su lista. Como nota final noten un par de curiosidades sobre la capacidad del JWST (que compartí con ustedes en mis redes sociales recientemente): El espejo del JWST puede distinguir los detalles de una moneda colocada a 40km de distancia, así como puede ver estrellas 10 mil millones de veces más tenues que verlas a simple vista. - Para ver el lanzamiento en vivo sintonicen en NASA TV en este enlace en YouTube. - Los dejo ahora con un video oficial que les ilustra cuál será la travesía del JWST desde el momento del despegue a su inicio de funcionamiento. El video es en inglés pero la parte visual les dará una buena idea de todo lo que ocurrirá sin necesidad de palabras. Que lo disfruten. - Actualización 1: Si desean ver una versión doblada al español del video anterior, la pueden ver acá, cortesía de mi amigo Manuel Grullón (@manuelg296) quien una vez fue Presidente de Astrodom (la Sociedad Astronómica Dominicana) y es el actual Coordinador Nacional de divulgación astronómica para República Dominicana ante la UAI (Unión Astronómica Internacional) Actualización 2: ¡El lanzamiento fue todo un éxito! Ahora a seguir con las próximas etapas arriesgadas de la misión que incluye un mes de viaje hasta su destino final y todos los pasos enumerados en el artículo. Hoy fue un gran día para la humanidad. Actualización 3: ¡Hoy 8 de enero 2022 el JWST finalizó su etapa de ensamblaje final! Los próximos pasos son empezar a alinear los bloques del espejo principal para formar un solo espejo compuesto perfecto y empezar a calibrar y probar todos los instrumentos a bordo. Todo este proceso tomará unos 5 meses más, pero ya lo más peligroso de la misión ha pasado lo que es un minumental alivio. Actualización 4: Esta semana que inicia Marzo la NASA anunció que se acaba de finalizar exitosamente la alineación tanto de los espejos como de la cámara principal, y además anunció que las primeras imágenes de pruebas de calibración superan las expectativas. Todavía se estima que para Julio de este año 2022 entrará en operación oficialmente. Actualización 5: El 11 y 12 de Julio la NASA hizo públicas las primeras imágenes del JWST, y he acá una de las más preciosas de ellas. autor: josé elías |
6 comentarios
1,098,598 vistas |
Cámaras Digitales , Ciencia , Curiosidades , Educación , Pregunta a eliax , Tecnología Espacial , Tecnología Visual , Videos |
martes, diciembre 21, 2021
|
Hola amig@s lectores,
Antes de finalizar el año quiero hacer una breve reseña de las cosas tecnológicas más relevantes de este año 2021, desde sorpresas hasta cosas que cambiarán nuestras vidas en el futuro. Así que sin mucho más que decir, y sin ningún orden en particular, he aquí mi lista: 1. Iniciativa del Año: El Metaverso, por Meta (previamente llamada Facebook) El Metaverso no ha sido inventado por nadie en particular, pero Mark Zuckerberg se apropió del término y hasta renombró a su empresa Meta para demostrar lo serio que está con este tema. Y aunque falta ver si Meta será el principal o uno de los principales jugadores en todo esto del Metaverso (piensen de ello como el inicio a un mundo similar al de Matrix), lo cierto es que hay que darles crédito por no solo popularizar el término en la cultura popular, sino por animar al resto de a industria a tomar el concepto totalmente en serio. 2. Tendencia del año: NFT Si hay algo que junto con el Metaverso será parte fundamental de nuestro futuro tecnológico, es el concepto de los NFT (o Tókens No-Fungibles), que son el equivalente digital a tu ser propietario de cosas en el mundo fuera del ciberespacio. Lean más sobre NFTs aquí. 3. Palabra del año: NFT Y en segundo lugar "Metaverso". 4. Cripto-plataforma del año: Ethereum Aunque Bitcoin fue lo que indudablemente puso el tema de las criptomonedas en el mapa, en realidad ha sido Ethereum con su plataforma y su Ether que han estado revolucionando el espacio de las cripto-transacciones, permitiendo no solo pagar con monedas digitales sino proveyendo herramientas para crear toda una nueva generación de aplicaciones desentralizadas (como los NFTs). Y si les interesa el cripto-trading, acá un artículo al respecto. 5. Visor de Realidad Virtual del Año: Oculus Quest 2 Aunque este visor salió el año pasado, continúa al día de hoy siendo la mejor introducción al Metaverso que puedan comprar, y lo mejor de todo es que dependiendo dónde y cuándo compren su precio ronda entre los US$250 y US$300 dólares, que en mi opinión es una mejor compra que una consola tradicional de video-juegos que cuesta mucho más y no ofrece ni cerca del grado de inmersión que este equipo ofrece. Esta es una de las compras tecnológicas que más recomiendo a cualquiera. 6. Innovación Cinematográfica del Año: Empate entre (1) la cámara DJI Ronin 4D con tecnología flotante y LIDAR, y (2) la tecnología Cinema ProRes en el iPhone 13 Pro. La cámara DJI Ronin 4D es una cámara totalmente diferente a todas las que vinieron antes. No solo tiene un diseño en donde el sensor y el lente flotan delante de la cámara (para hacer imágenes super estables) sino que además incluye tecnología LIDAR para enfocar, lo que significa que la cámara crea una representación tridimensional de su entorno por medio de rayos láser para saber la distancia exacta entre el lente y el sujeto a grabar, permitiendo enfocar de manera super precisa no solo de día sino incluso en casi total oscuridad (la tecnología LIDAR es utilizada también por algunos fabricantes de automóviles robóticos para entender su entorno). Y en cuanto a la tecnología Cinema ProRes, de alguna manera Apple logró meter dentro del espacio de un celular (en este caso la versión Pro del iPhone 13) un encodificador del estándar de codificación de cine, ProRes, lo que le permite grabar video en crudo con una calidad que hasta ahora era solo posible en cámaras que costaban decenas de miles de dólares. Y de paso le agregaron un modo de desenfoque computacional a las imágenes para darle un "look" más cinemático a los videos. Si tienen un iPhone 13 Pro noten que esto deben activarlo en Configuración, y que si no saben lo que hacen no recomiendo lo utilicen ya que este tipo de videos genera archivos varias veces más grandes que videos normales. Esto está diseñado específicamente para profesionales que necesitan la más alta calidad posible (que tampoco será evidente hasta que sepan como manipular los parámetros del video generado para cambiar su exposición y otros factores). 7. Cámara Computacional del Año: Google Pixel 6 Hay dos maneras principales de crear imágenes fotográficas: De forma óptica (es decir, lo que sea que entre al sensor por el lente) y de forma computacional (es decir, se toman datos del lente y después se mejoran con computación), y un ejemplo de fotografía computación es la funcionalidad que popularizó Apple que permite desenfocar el fondo de una foto después de esta haber sido tomada. Sin embargo ha sido Google quien ha llevado esto a otro nivel con su nuevo celular Pixel 6, que en mi opinión es el mejor valor por tu dinero en el mundo Android en estos momentos. 8. Tecnología Revolucionaria del Año: Los procesadores M1 Pro/Max de Apple Cada cierta cantidad de años una tecnología surge que estremece los cimientos de su industria ocasionando grandes cambios, y la serie de procesadores M1 Pro/Max acaban de hacer eso. Estos procesadores no solo han creado un abismo en la relación precio/rendimiento entre Macs y las tradicionales PCs con Windows, sino que han creado toda una revolución que ahora están forzando a Microsoft y los demás participantes del mundo Windows a adoptar procesadores con tecnología ARM. Solo para que tengan una idea, una laptop MacBook Pro 2021 con el procesador M1 Max puede manipular en tiempo real hasta 7 fuentes de video 8K en crudo y HDR, lo que significa el manipular 56 veces más flujos de datos en tiempo real que un video 4K tradicional. Lograr eso en una PC tradicional requiere en la actualidad de comprar tarjetas de video especializadas que cuestan por sobre los US$5,000 dólares, y aun así no pueden manejar 7 flujos de 8K HDR simultáneos. Y todo eso lo hace un solo chip dentro de una MacBook Pro ahora. Y esto no es solo mercadeo. Todas las pruebas que ya se han hecho públicas por profesionales creativos han confirmado que una MacBook Pro M1 ya es entre 3 y 15 veces más rápida que una PC super potente costando varias veces más, utilizando el mismo programa en ambas máquinas (como Photoshop, Lightroom, etc). Y como si fuera poco, Apple logra todo eso con un super bajo consumo energético que permite que todo ese poder se pueda utilizar en una laptop corriendo en batería todo el día, sin conectar la corriente eléctrica a una pared, mientras que en el mundo Windows hacer lo mismo por lo general significa PCs de escritorio con power supplies halando al menos 250 vatios continuos como mínimo. Esto está provocando una ola de adopción y migración hacia Macs como nunca antes vista en la historia de Apple, y acelerando la llegada de una nueva generación de procesadores ARM para Windows en el 2022. Aprende más sobre la tecnología de chips propietarios de Apple aquí. 9. Sistema de Computación Personal del Año: Apple MacBookPro M1 Pro/Max Debido a las razones enumeradas en el punto anterior, en estos momentos no hay nada ni siquiera remotamente cercano a lo que puedes obtener en términos de rendimiento por tu dinero al comprar una MacBook Pro 2021 con procesador M1 Pro o M1 Max. 10. Innovación Cotidiana del Año: AirTags de Apple Los AirTags son objetos del tamaño de monedas grandes que dejas en tu automóvil, mochila, mascota, cartera o cualquier cosa que se te pueda perder o te puedan robar, y que te permite localizarlo rápidamente. Los AirTags es bueno notar que no tienen función de GPS con ellos, sino que dependen de que cerca de ellos existan personas con un iPhone, ya que Apple ha creado una red global en donde todos los iPhones del mundo se comunican de forma segura con los AirTags, y reportan su ubicación. Así que por ejemplo si te roban tu automóvil, y dejaste un AirTag adentro, es bastante posible que en algún momento algún desconocido que tenga un iPhone estará cerca de tu vehículo, en cuyo caso el AirTag se comunicará contigo y sabrás donde está tu auto (y claro está, que como todo en la vida, esto tiene sus usos buenos y malos como ya ha sido reportado de bandidos pegando AirTags a autos que desean robar para saber la ubicación de su propietario). 11. Sorpresa visual del año: La cámara Nikon Z9. Nikon salió literalmente de la nada con una cámara mirrorless (sin espejo) que ha no solo dejado atónitos a todos sino que dejado hasta mal parada a la competencia. Esta cámara aparte de poder disparar fotos a 20fps en RAW, 30fps en JPG, también tiene un modo especial para capturar 120 fotos por segundo en menor resolución. Esto la hace en una cámara ultra potente para deportes y acción. La cámara además tiene 45 Megapixeles con un impresionante rango dinámico lo que la hace también excelente para fotografía de bodas, retratos artísticos, y moda. Como si fuera poco graba video crudo con resolución 8K lo que de paso la hace una máquina ultra potente para el cine profesional. Una actualización gratuita próxima le permitirá grabar video12-bit 8K N-Raw y 4K ProRes RAW internamente, con 8K/60fps. Algo inaudito. Como si fuera poco, tiene un ultra-rápido sistema de enfoque automático 3D que se asegura que tus fotos salgan nítidas sin importar cuánto se mueva el sujeto que estás capturando en fotos o video. Y noten que aunque la cámara cuesta US$5,500 dólares, que eso es más barato que las cámaras de gama alta de Canon (la EOS R3) y Sony (la A1). 12. Renacimiento del año: Nikon Gracias a su cámara Z9, la empresa se acaba de levantar como el ave Fenix de sus cenizas. La empresa no ha podido fabricar suficientes para satisfacer la demanda. 13. Herramienta de Desarrollo de Software del Año: Microsoft Visual Studio Code No confundir con su otro producto llamado simplemente "Visual Studio", esta es la versión open-source que se ha tornado indispensable para toda una nueva generación de desarrolladores de software, gracias a su expandabilidad por medio de plug-ins que expanden su funcionalidad a esencialmente cualquier área imaginable de la computación. 14. Plataforma de Desarrollo Multi-Plataforma del Año: Google Flutter Si planean arrancar desde cero un App que deba compilar tanto para Android como iPhone, iPad, y ahora hasta Web, Windows, Linux y Mac, no creo exista mejor opción en el mercado que Flutter de Google. No solo genera Apps multi-plataforma sino que de muy alto rendimiento, y la más reciente versión ahora incluye librerías para video-juegos 2D de alto rendimiento. 15. Plataforma de Streaming del Año: Disney+ Disney+ no tiene ni cerca del contenido de Netflix, sin embargo se ha enfocado en algunos nichos que ha hecho que despegue más rápido que Speedy Gonzalez. Parte de su truco ha sido capitalizar sus franquicias de Marvel, creando series originales que solo se pueden ver por esa vía, como la excelente Loki. 16. Tecnología Científica del Año: El James Webb Space Telescope Si todo sale bien este telescopio se lanzará este próximo 25 de Diciembre 2021, y durará 1 mes para llegar a su destino a 1.5 millones de km de distance a un punto calmado y equilibrado grabitacionalmente, en donde desplegará una gran sombrilla espacial para bloquear la luz solar y poder observar el universo en tranquilidad como ningún otro instrumento en la historia de la humanidad. Su misión principal será la de observar los primeros 100 a 250 millones del años después del Big Bang (es decir, cuando nuestro universo era un bebé) para así entender mejor nuestros orígenes. Sin embargo la ciencia que hará será mucho más extensa que eso, tocando todos los campos de la astronomía y astrofísica a nuestro alcance, desde agujeros negros y posible materia oscura hasta la evolución de galaxias y el estudio de objetos exóticos como los cuásares. El lanzamiento de este instrumento es algo que hemos estado esperando desde el 1989 (a un costo de casi 10 mil millones de dólares) cuando se propuso por primera vez, por lo que esta será la misión con más nervios jamás lanzada al espacio por la humanidad. 17. Avance de Salud del Año: AlphaFold por DeepMind DeepMind es una inteligencia artificial de Google, y uno de los proyectos en que participó se llama AlphaFold, que ha permitido en tiempo record predecir como se doblan de forma tridimensional todo tipo de moléculas, específicamente proteínas de ADN. Esto es un paso monumental que en pocos años acelerará el descubrimiento de medicinas y tratamientos para todo tipo de enfermedades. 18. Viaje Espacial del Año: William Shatner (“Captain Kirk”) en la nave de Blue Origin Jeff Bezos (fundador de Amazon y Blue Origin) ganó muchos puntos de mercadeo este año al anunciar que enviaría al espacio a William Shatner, mejor conocido como el Capitán Kirk en la serie clásica de Star Trek ("Viaje a las Estrellas"), logrando con eso un sueño de muchos geeks de ver a este actor subir al espacio en la realidad. 19. Empresa Espacial del Año: SpaceX ¿Qué más podemos decir de esta empresa? Sencillamente no tiene igual. No solo hizo decenas de pruebas y lanzamientos (de cargo a naves espaciales exploratorias, de viajes a la Estación Espacial Internacional, y subiendo todo tipo de satélites), sino que está bien encaminada a cumplir su misión de llevar la humanidad al planeta Marte, como lo prometió su fundador Elon Musk. 20. Nave Espacial del Año: StarShip de SpaceX ¿Podrían imaginar un edificio rascacielos no solo despegando sino que volviendo a aterrizar de espalda nuevamente? Pues eso es exactamente lo que hace la nave StarShip que en el 2021 SpaceX logró demostrar que podrá cumplir su misión no solo de subir grandes cantidades de cargo al espacio, sino de llevarnos al planeta Marte. 21. Tecnología Espacial del Año: StarLink de SpaceX ¿Internet satelital de alta velocidad y baja latencia en cualquier parte del mundo y a un costo razonable? Envíenme el contrato rápidamente... Elon Musk es un genio certificado. 22. Empresa Automovilística del Año: Tesla Tesla casi por su propia cuenta ha sido la principal responsable a nivel mundial de popularizar los vehículos eléctricos, y no vemos fin a su buena racha. Cuando salga a la venta el Cybertruck será todo un fenómeno de ventas y de cultura popular. Una vez más, Elon Musk a la cabeza. 23. Personaje del Año: Elon Musk No hay sorpresas aquí. Este año ni siquiera hubo competencia remota para un segundo lugar a ponderar. Este hombre se está consagrando como el Leonardo DaVinci de nuestros tiempos, y todavía le falta mucho por vivir. autor: josé elías |
4 comentarios
1,154,900 vistas |
Apple / OS X , Cámaras Digitales , Celulares / Móviles , Ciencia , Cine / DVD / Blu-ray , Google , Negocios , Opinión / Análisis , Realidad Virtual , Redes Sociales , Salud , Software , Tecnología Espacial , Tecnología Visual , Vehículos , Video-juegos , Windows / Microsoft |
domingo, diciembre 9, 2018
|
Hola amig@s lectores, Este año, solo para divertirnos un rato, decidí crear un premio #eliax para aquellas tecnologías, empresas y personas que creo se destacaron en el 2018. Les recuerdo que todos los ganadores son elecciones personales, y que quizás ustedes no estén de acuerdo con algunas de ellas. Sin embargo, en cada caso trato de justificar el por qué de mi elección. Y ojo, que cada año salen centenares de productos, y que estoy consciente de que hay muchos más fuera de esta lista que son productos increíbles, pero quise concentrarme solo en la "crema de la nata", en aquellos que sobresalen por innovación y/o ejecución presente, o por el potencial que representan hacia futuro. Si creen que me faltó algún producto, empresa, persona o categoría en la lista, comenten en los comentarios y consideraré incluirlo con una actualización, pues es obvio que algo se me pudo haber pasado por alto (esta lista me sentí a escribirla literalmente en unos 10 minutos, recuerden que hago esto por puro hobby). Finalmente, una aclaración para los conspiranóicos: Ninguna de las empresas aquí mencionadas me paga o favorece ni directa ni indirectamente (ni en dinero, bienes o favores) por hablar bien de sus productos. Así que sin más que decir, acá vamos... Producto Tecnológico del año (empate) Amazon Basics Microwave Oven with Alexa ¿Un horno de microondas es el producto tecnológico del año? ¿en serio? ¿qué tiene de especial ese aparato? Eso de seguro es lo que le ha pasado por la mente a todo el que haya sido sorprendido por esta elección (y que no hayan asistido a una de mis charlas en donde menciono en detalle esta iniciativa de Amazon). Pero este no es un simple horno de microondas. Es un horno de microondas con Inteligencia Artificial al cual le puedes hablar con Alexa (toda la inteligencia del microondas reside en la nube, por lo que necesitas conectarlo a Internet por WiFi) para que te cocine, por fin liberándote de tener que descifrar esos interfaces extraños con los cuales vienen estos dispositivos. Ahora en vez de presionar botones solo pones la comida adentro y dices algo como "Alexa, calienta la sopa", o "Alexa, cocina esta lasaña", o "Alexa, descongela la pizza". De ahí el adelante el microondas se encarga. Esto a simple vista no aparenta gran cosa, pero aparte de eso este microondas tiene sensores que detectan si por ejemplo pones fundas de palomitas de maíz adentro, y desde que nota que se te van a agotar ordena más automágicamente tras bastidores con tu cuenta de Amazon Prime para que te lleguen a tu casa lo antes posible y siempre tengas palomitas disponibles (solo imaginen el potencial que tiene esto para Amazon en todo tipo de productos). En mi opinión, esto es apenas el inicio de toda una estrategia y serie de electrodomésticos inteligentes que Amazon está introduciendo bajo el radar, y explica además el por qué recientemente compró la cadena de supermercados de Whole Foods en EEUU por unos US$13,400 Millones de dólares. Imagínense ahora refrigeradores que automáticamente detecten cuando las comidas vayan a vencer y te sugiera recetas (con otros ingredientes que te recomendará Amazon para que compres), o lavadoras de ropa que automáticamente ordenen detergentes desde Amazon. Y eso es tan solo el inicio... Es bueno notar que de este tipo de dispositivos hogareños inteligentes se viene hablando desde hace literalmente décadas, e incluso han salido uno que otro producto al mercado, pero este es en mi opinión el primero que hace la mezcla mágica de un producto práctico, con una Inteligencia Artificial probada (Alexa), a un bajo costo, y con potencial de ser parte de toda una plataforma y ecosistema. Al menos que otro competidor se de cuenta de lo que está ocurriendo y actúe rápido, Amazon se convertirá en el centro de nuestra vida digital hogareña cotidiana... Lo pueden obtener en este enlace por US$59 dólares desde Amazon.com Google Duplex Para los que tampoco hayan asistido a mis charlas, Google Duplex es una tecnología que permite que tu celular funcione como un asistente real para hacer llamadas por ti y hacerte la vida mucho más fácil. En un ejemplo que mostró Google (enlace al video más abajo), una mujer le dice a su celular que le agende una cita en un salón de belleza para cierto día de la semana, y el celular arranca por su cuenta, hace la llamada, y habla como un ser humano (con todas las idiosincracias, incluyendo sonidos y ruidos que hacemos involuntariamente al hablar), y coordina con la persona al otro lado de la linea telefónica que en ningún momento se percata que con quien habla es con una Inteligencia Artificial. Durante la demostración, el sistema incluso negoció una hora en base a disponibilidad con la otra persona en la linea, y después de ahí obviamente de seguro puso en la agenda del celular un recordatorio, así como recordó el lugar para mostrar como llegar ese día con Google Maps, y quien sabe si hasta cobrar con Google Pay... Y para los que no han notado el patrón en #eliax a través de los años: Sí, nos acercamos a una titánica batalla entre los distintos servicios de Inteligencia Artificial, en donde estos poco a poco reemplazarán los típicos interfaces de usuarios con lo que yo llamo desde hace años en mis charlas "Desinterfaces de Usuario". Acá pueden ver la demostración de Google Duplex (la tecnología está disponible ya en algunas ciudades de EEUU en modo de pruebas con un grupo selecto de usuarios de los celulares Google Pixel 3, y se espera salga de forma global en el 2019). Innovación en industria médica del año Apple Watch Series 4 con ECG Hasta hace poco el tan solo sugerir que se podría reducir todo el equipo de hacer un electrocardiograma (ECG) a algo más pequeño que un celular hubiese parecido ciencia ficción, y mucho menos que cabria dentro de un reloj inteligente, que fue precisamente lo que hizo Apple sorpresivamente con su Apple Watch Series 4 que salió en este 2018. Es cierto que quizás no sea tan versátil como un equipo dedicado que cueste decenas de miles de dólares, pero para el fin que fue creado es algo sencillamente asombroso y super útil con capacidad de salvar y mejorar vidas. Gracias a estos sensores en el nuevo Apple Watch tu reloj podrá monitorear en tiempo real (o en demanda, dependiendo de lo profundo que quieras hacer el estudio) tu ritmo cardíaco y compartir esa información (si así lo decidas y cuando lo decidas) con tu médico, ofreciendo así un mucho mejor diagnóstico de anomalías cardíacas, y en muchos casos hasta salvarte la vida (como ya se ha reportado ha sucedido entre los primeros usuarios en EEUU). Es importante destacar que en muchos casos cuando los pacientes van a hacerse un electrocardiograma, que muchas veces la anomalía no se presenta en ese instante, pero si el Apple Watch puede proveerle al doctor un ECG del momento anterior en que te sentiste mal (o del comportamiento de tu corazón en tu vida cotidiana), este puede hacer un mucho más acertado y rápido diagnóstico de tu condición. Ah, y como si fuera poco, el nuevo Apple Watch también detecta caídas (utilizando sus acelerómetros con unos algoritmos muy avanzados que evitan falsos positivos) y que automáticamente pueden alertar a un familiar o amigo cercano junto con la ubicación del accidente, lo que está genial para nuestros amados abuelos o padres. El Apple Watch representa apenas el inicio de una tendencia global que veremos en donde dispositivos como este vendrán con todo tipo de sensores para prevenir y diagnosticar decenas de males, mejorando nuestras expectativas y calidad de vida. Página oficial del Apple Watch Tecnología fotográfica del año Fotografía Computacional del Google Pixel 3 y Night Sight Asombrosamente la gran innovación del año en el mundo fotográfico no vino de una cámara digital tradicional o incluso de las empresas líderes en ese mercado (como Canon, Nikon o Sony), sino de un celular de Google. El Google Pixel 3 lleva el concepto de "Fotografía Computacional" a todo un nuevo nivel. En vez de depender de lentes caros y grandes sensores, el Pixel 3 depende más de poder combinar muchas imágenes en tiempo real, analizarlas con algoritmos de Inteligencia Artificial, y deducir como la imagen debería verse, produciendo una imagen final que en cierta medida es sintética (o "computada", de ahí el término). Esto se hace efectivamente evidente en su modo Night Sight ("Visión Nocturna") en donde el Pixel 3 puede generar imágenes en ambientes de casi total oscuridad, con calidad comparable a cámaras y lentes que cuestan miles de dólares. Acá en mi cuenta @eliax en Instagram pueden ver varios ejemplos del modo Night Sight del Pixel 3 Innovación en cinema del año (triple empate) BlackMagic RAW Casi todas la cámaras que graban video hoy día en ambientes de consumidores (o incluso "pro-sumidores") deben comprimir bastante la imagen y almacenarla en formatos como mp4 o Apple ProRes debido al tamaño inmenso de los archivos, pero eso tiene el problema de que ya temas como exposición y balance de color están "quemados" en la imagen, similar a como cuando una cámara fotográfica crea una imagen JPG (en vez de una imagen en crudo, o RAW, que retiene todas las características capturadas por el sensor de la cámara). En el mundo profesional del video sin embargo es normal capturar en formatos de video RAW (como CinemaDNG RAW), pero esto produce unos archivos inmensos, y por tanto es bastante costoso grabar video en estos formatos, ya que incluso con un disco duro de 1TB podrás grabar apenas unos pocos minutos de video. Y es ahí donde entra el nuevo formato BRAW de la empresa BlackMagic. Acá no tengo espacio para explicarles las increíbles facultades técnicas de este formato (pero incluyo un enlace a un video explicativo de BlackMagic más abajo que recomiendo ver si son usuarios técnicos), pero su gran innovación es que es un formato que genera archivos de tamaño comparables a los de formatos de imágenes comprimidas, y de paso es un formato super ligero para editar, lo que significa que se hace posible editar video 4K (o incluso 8K) en equipos de actualidad sin inversiones adicionales. ¿Y qué significa eso? Que esto permitirá toda una nueva generación de contenido generado con equipos de bajo costo cuya calidad de imagen no distará mucho de equipos que hasta hace poco costaban un riñón y algo más, en esencia democratizando la calidad del cinema a toda una nueva generación de cineastas. La primera cámara que soporta este formato es la URSA Mini de BlackMagic, pero el formato es abierto (para los que son programadores, ya tienen un SDK público) y se espera que pronto otros fabricantes lo adopten. La próxima cámara que adoptará este formato será la BMPCC 4K (leer el próximo punto). Este video les explica en más detalle cómo funciona BRAW BackMagic Pocket Cinema Camera 4K (BMPCC 4K) Si siempre han deseado hacer cine, y tienen un presupuesto relativamente humilde, no tienen que ir lejos para hacer sus sueños realidad, esta es la cámara que necesitan (a finales del 2018). Punto. De alguna manera BlackMagic puso un sensor equivalente a Super-35mm (y montura MFT), con salida de video RAW de 10-bit, 13-stops de Rango Dinámico, entrada de micrófonos XLR, resolución 4K a 60fps, más una pantalla de 5" detrás, por menos de US$1,300 dólares. Como si fuera poco viene con un puerto USB-C por lo que podrás conectarle SSDs como los micro SSD de Samsung que son geniales (y certificados por BlackMagic para 4K60fps) para estos usos intensos. Y lo mejor de todo es que soportará BRAW en las próximas semanas/meses según BlackMagic. En cuanto a las pocas cosas negativas de esta cámara está su funcionalidad de enfoque automático (que no está a la par de la competencia, pero en cine por lo general se enfoca manualmente), y que no tiene IBIS (estabilización de imágenes interno, pero para resolver este tema lean sobre el próximo ganar más abajo). Sin embargo dada sus otras prestaciones y a este precio esas son cosas que se dejan pasar para esta cámara. Ah, y como si fuera poco, BlackMagic incluye con la BMPCC 4K una copia completa de DaVinci Resolve, que es un super-editor de video que de paso es el estándar hoy día para hacer grading (corrección de color) en Hollywood. La página oficial de la BMPCC 4K DJI Ronin-S Handheld 3-Axis Gimbal Stabilizer Han existido muchos dispositivos para estabilizar el video en cámaras (una habilidad que es lo que más fácilmente separa el video de un profesional al video de un amateur), pero nunca uno como este y a este precio. Por unos US$700 dólares ya puedes deshacerte (o tener que comprar) equipos que cuestan entre 5 y 50 veces más. Y lo mejor de todo es que funciona bastante bien con la BMPCC4K. Este dispositivo (junto a un buen micrófono y sistema de iluminación) es una de las cosas que más fácilmente harán que tu producción se sienta como un producto realmente profesional. Y ojo, es bueno notar que ya existen varios dispositivos similares en el mercado (incluso antes de salir este modelo), pero este es el que funciona de manera fluida mejor que todos, y el que por fin te da un resultado profesional en la palma de la mano (literalmente). Página oficial del DJI RONIN-S Cámara Digital del año (empate) Sony α7 III La Sony A7 III rompió terreno en muchos aspectos, desde su precio (unos US$2,000 dólares) hasta su excepcional calidad de imagen en un sensor full-frame de 35mm mirrorless, así como video 4K de excelente calidad, y como si fuera poco estabilización de imagen interna (IBIS) y posiblemente la mejor implementación de enfoque automático a los ojos del mercado. Si Sony continúa innovando como va, Canon va a tener mucho de qué preocuparse en par de años, particularmente después de su anémica EOS-R. Página oficial de la Sony A7 III Fujifilm X-T3 Si el presupuesto solo les llega a US$1,500, no creo que exista una mejor cámara en el mercado que la X-T3. La gran diferencia con la Sony A7 III es que esta tiene un sensor APS-C de menor tamaño, pero super optimizado para fotos y video (el video 4K de esta cámara es sencillamente espectacular). Y reitero que no se dejen llevar por el precio de esta cámara, muchos alegarían que salvo el tamaño del sensor, que la X-T3 en muchos aspectos se siente no solo mejor que la Sony A7 III, sino que cámaras que cuestan 2 o 3 mil dólares más. Esta cámara junto con la A7 III ha sido la gran ganadora de este año en casi todas las listas de fotógrafos como cámaras del año, y en mi opinión ambas han ganado de forma bien justificada. Pocos años hemos visto tanto favoritismo unánime hacia un par de cámaras como en este 2018. Página oficial de la Fujifilm X-T3 Teléfono Inteligente del Año (empate) Apple iPhone XR El iPhone XR se lleva el premio (por sobre el iPhone XS o XS Mas) porque cuesta muchísimo menos (unos US$300 menos) pero contiene exactamente el mismo procesador (CPU) y chip de gráficos (GPU) interno que sus hermanos, así como exactamente la misma cámara principal (siendo la única diferencia que el XS y XS Max tienen una cámara adicional secundaria para mejorar el tema de zoom y de fondo difuso o bokeh). De paso también contiene el excepcional sistema de reconocimiento facial tridimensional FaceID, con el cual ya no tienes que volver a entrar o recordar claves, o incluso tener que poner el dedo en un sensor biométrico (y de paso, es super-seguro, no permitiendo que una simple fotografía o incluso estatua de tu cara acceda a tus datos). ¿Pero por qué la diferencia en precio entre el XR y los XS/XS Max? Pues porque el XR viene con una pantalla tipo LCD en vez de una OLED. Muchos les dirán que es una gran diferencia, pero en la práctica la pantalla del XR se ve extraordinariamente bien, y solo si se ponen a revisar el contraste de forma minuciosa se percatarán de las diferencias (la excelente pantalla del iPhone 8 por ejemplo es LCD y se ven super, y es de inferior calidad a la del XR, para que tengan una idea). Y si creen que el XR no puede hacer efectos de fotografía de retratos de fondo difuso (con "bokeh") porque tiene una sola cámara, se equivocan, ya que con la tecnología de dual-pixel que incluye e Inteligencia Artificial el XR puede lograr un efecto similar (aunque quizás no tan preciso), de forma parecida como el Google Pixel 3 logra fondos difusos con una sola cámara. Google Pixel 3 Yo personalmente siempre he preferido iPhone sobre Android (aunque utilizo ambos) debido a su simpleza y a que el interfaz se siente más fluido, pero las novedades técnicas del Pixel 3 no puedo dejar de pasar por alto, particularmente su cámara (que es en mi opinión mejor que la del iPhone XS) y su increíble funcionalidad de Google Duplex. Y a propósito, es importante notar que Google se ha dado cuenta de que tiene un reto con respecto al interfaz de usuario de Android, razón por la cual ha decidido diferenciarse por medio de otras cosas, como fotografía computacional y un asistente digital más inteligente. Me gusta por donde va Google en estos aspectos... Página oficial del Google Pixel 3 Juguete del Año Nintendo LABO Nintendo este año lanzó uno de los juguetes más sorpresivos, divertidos y originales con su sistema LABO. Estos juguetes que vienen en kits en esencia son extensiones a la consola Nintendo Switch fabricadas con cartón y otros componentes, que los niños tienen que literalmente armar, para después conectar el Switch (en una de varias maneras) y "crear" un nuevo tipo de juguete, que puede ser desde un traje de robot hasta un piano (totalmente funcional), o desde una casa interactiva hasta una caña de pescar (con juego incluido para darle uso). Para ver esto en acción, vean este video. Personaje del Año Elon Musk Este hombre por su cuenta ha decidido reinventar el negocio de las baterías hogareñas, el de los autos eléctricos, el de los vehículos autónomos, el de la Inteligencia Artificial, el de los viajes al espacio, el del transporte bajo tierra, y el de llevarnos a Marte. ¿Realmente necesito decir algo más? Tony Stark le está quedando pequeño (vamos a tener que iniciar una campaña con Marvel para que reemplace los cameos de Stan Lee ahora que ya no está con nosotros). Ah, y no dejen de ver un video que hice hace par de años sobre Elon Musk. Lo encontrarán más abajo en el premio que le otorgo a Tesla. Empresa del Año (triple empate) Amazon Amazon poco a poco (bajo el liderazgo de su super visionario fundador Jeff Bezos) se está transformando en el nuevo Windows con su AWS, y en el nuevo Apple con sus productos de consumidores, y en el nuevo Google con sus productos con Alexa. Esta es en mi opinión la empresa más peligrosa del mundo para competidores que no se adapten e innoven tan rápidamente como este titán en el espacio tecnológico. Tesla Ante todas las predicciones, Tesla ha cumplido y revolucionado el mercado de vehículos eléctricos. Así como el original iPhone aceleró la llegada de toda una nueva industria, así Elon Musk está acelerando la llegada de toda una nueva generación de vehículos limpios e inteligentes. Y lo ha logrado en contra de innumerables obstáculos legales y logísticos que en buena medida le han creado sus competidores, quienes en vez de estar obstruyendo el progreso sobornando a legisladores deberían mejor ponerse a innovar antes de que Tesla los haga a todos obsoletos. Acá los dejo con un video que hice hace un par de años en donde les explico por qué siempre he confiado en Tesla (tiene mucho que ver con Elon Musk). Netflix Netflix de por sí sola ha influenciado más la industria del cinema que todos los estudios de Hollywood y cableras tradicionales combinadas en años recientes. Su software para consumir sus producciones originales están en todas partes (desde televisores y tabletas hasta cajas de cable), soporta estándares como 4K y HDR, y se expande cada vez más a mercados internacionales. Su influencia ha sido tal que ya es el modelo a seguir por competidores como Amazon, Google y Apple, así como el próximo servicios de Disney+ con contenido clásico de Disney, Marvel, Star Wars y PIXAR. Regreso Meritorio del Año Microsoft Lo mejor que le ocurrió a Microsoft en sus inicios fue Bill Gates (independientemente de sus tácticas un tanto cuestionables), pero lo peor que le ocurrió fue su sucesor Steve Ballmer, quien en vez de adaptar la empresa a los nuevos tiempos lo que hizo fue tratar de defender el duopolio de Windows y Office. Durante su cargo Microsoft obvió por completo tendencias como móviles inteligentes (Ballmer dijo en video que nadie compraría jamás un iPhone por ser tan caro, e incluso organizó un funeral para Apple y el iPhone transmitido por TV nacional), también hizo caso omiso al crecimiento empresarial en la Nube (cediendo el mercado a Amazon), y un sinnúmero de tecnologías que cada día más hacían más obsoleto a Microsoft. Sin embargo el 4 Febrero del 2014 Microsoft eligió un nuevo CEO, a Satya Nadella (acá mis impresiones de ese evento en ese día junto a un poco más de historia y predicciones que al final se hicieron realidad, particularmente este año), y poco a poco todo cambió. Nadella es bueno destacar tenía (o tiene) una tarea muy cuesta arriba, pues Microsoft es un gigante en muchos aspectos con mucha burocracia, pero poco a poco Nadella a conseguido remaniobrar el barco de Microsoft para dejar el énfasis en Windows (que cada vez se hace menos relevante en un mundo móvil dominado por Apple y Google) y enfocarse más en servicios. Bajo Nadella por ejemplo Microsoft ha revivido el mercado de Office ofreciendo versiones por subscripción y versiones especiales de Office en la Nube que han empezado a rendir grandes frutos. Nadella además entró con ambos pies para expandir su estrategia de Azure, que también está creciendo vigorosamente, siendo ahora posiblemente el mayor competidor al Amazon AWS. De paso Nadella decidió ser pragmático y ha acogido a Linux y la comunidad del software libre, haciéndolo aliados y de paso hasta beneficiándose de sus frutos. De forma similar ha forjado todo tipo de pactos y acuerdos con co-petidores como Apple y Google, para traer versiones por subscripción de Office a sus plataformas. ¿El resultado actual? Hace par de semanas (aunque solo durante un par de días) Microsoft superó en valor del mercado a Apple, y ya ha vuelto a competir fuertemente en muchos aspectos con los titanes de la industria. Bajo Nadella Microsoft ha vuelto a despertar, y se ha transformado en un titán de los servicios para consumidores y empresariales, literalmente salvando la empresa para los años venideros, y por eso es para mi el mayor comeback (regreso) que hemos visto en años recientes desde aquella vez cuando Steve Jobs regresó a Apple para sacarla de bancarrota y convertirla en la empresa mas valorada del mundo en tan solo una década. Mis aplausos y respetos a Nadella y al gran talento que yacía oculto en Microsoft. El éxito es totalmente merecido. - Pues ahí tienen mi lista. Y ustedes, ¿qué opinan? Me encantaría leer sus impresiones en los comentarios así como sugerencias para incluir en la lista. Actualización 26 de Dic. 2018: Ingresé a la lista a Nintendo LABO, el cual en el momento que fue anunciado alabé en las redes sociales, y ahora al verlo funcionar me convenzo aun más de su increíble originalidad y visión. autor: josé elías |
10 comentarios
747,719 vistas |
Apple / OS X , Cámaras Digitales , Celulares / Móviles , Ciencia , Curiosidades , Dispositivos , Futuro Digital , Google , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Salud , Software , Tecnología Visual , Windows / Microsoft |
domingo, septiembre 17, 2017
|
Hola amig@s lectores,
Como la mayoría de los que continúan frecuentando mis artículos esporádicos acá en #eliax ya saben, en el 2014 me retiré formalmente de este blog después de escribir 10,000 artículos consecutivos durante casi 10 años, pero desde entonces de vez en cuando me inspiro a escribir algo, como esta vez que lo hago tanto por inspiración como por los incontables mensajes que he recibido de los que ya están acostumbrados a que analice los anuncios importantes de Apple, y esta vez (y como muchas veces ocurre con Apple), acá hay más de lo que vemos sobre la superficie de lo cual creoprimeras vale la pena escribir algo, así que abróchense los cinturones que aquí vamos... Lo anunciado Arrancaré ahorrándoles tiempo (los que ya saben lo que Apple anunció pueden saltar esta sección libremente), pues creo que ya todos sabemos los productos que anunció Apple el pasado martes, por lo que hagamos solo un muy breve resumen... Apple anunció los esperados sucesores al iPhone 7 y iPhone 7 Plus del año pasado, en la forma de los iPhones 8 y iPhones 8 Plus. También anunció el iPhone X (se pronuncia "iPhone Ten" o "iPhone Diez" en español, pues la "equis" en realidad es el número 10 en romano, en honor a este ser el décimo aniversario del original y revolucionario iPhone). Apple además anunció un nuevo Apple TV 4K con HDR (detalles abajo), y un nuevo Apple Watch Series 3 con LTE opcional (detalles y análisis abajo). El Apple TV 4K, HDR y el futuro de Hollywood Empecemos con un par de observaciones sobre el Apple TV 4K, el cual ha sido refrescado con con un nuevo procesador A10X (el mismo del iPad Pro) que lo hace mucho más potente que el modelo anterior, así como contiene el nuevo GPU (procesador de gráficos) de Apple que lo hace mucho más apto para video-juegos. Sin embargo sus dos nuevas características principales son soporte para resoluciones 4k y soporte para HDR (High Dynamic Range). 4K no es más que cuadriplicar la cantidad de pixeles (o puntos) en pantalla, del actual "Full HD" (1920 x 1080 pixeles) a "4K" (3,840 x 2,160). Cabe decir sin embargo que solo podrás tomar ventaja de esta nueva resolución si tu TV soporta nativamente esa resolución, e incluso si tu TV lo soporta esta resolución solo te será evidente en televisores de 65" hacia arriba y si estás sentado relativamente cerca al televisor. En pantallas menores a 65" y a distancias relativamente lejos de la TV prácticamente no vas a notar diferencia alguna por la sencilla razón de que tus ojos no pueden discernir puntos tan pequeños desde ciertas distancias. Sin embargo lo que sí hará diferencia es la inclusión de HDR (High Dynanic Range, que en español sería algo como "Amplio Rango Dinámico"). Mientras que 4K concierne con la cantidad de pixeles en pantalla, HDR tiene que ver con la calidad de esos pixeles, y noten que HDR es independiente de 4K, por lo que la tecnología ya está disponible en muchos televisores que solo tienen resolución "Full HD" (debes consultar tu modelo a ver si lo soporta). En la práctica, si dado a elegir, yo elegiría sin pensarlo dos veces una TV que "solo" tenga resolución 1080p pero que tenga HDR, a elegir uno que tenga 4K pero que no tenga HDR (aunque lo ideal obviamente sería uno con 4K y HDR, que hoy día se está empezando a convertir en la norma). En otras palabras, HDR al corto plazo tendrá una mayor incidencia en la percepción de mejora en calidad de imagen de los consumidores, que 4K. ¿Pero qué es HDR? HDR es una tecnología de encodificación y decodificación de imagen que permite impregnar en la imagen un ámplio rango dinámico de brillantez, oscuridad y colores en una imagen. Eso significa que escenas en donde predominen áreas muy intensas pero que también contengan áreas oscuras (como una habitación con poca luz con una ventana que de hacia el Sol) podrás ver detalles discernibles tanto en los detalles del cielo y nubes que ves por la ventana, como en las áreas oscuras que ves en la habitación (a diferencia de tener que el director de fotografía elegir entre detalles de las áreas claras o las áreas oscuras pero no ambas), y aunque esa es una super-simplificación de HDR, lo importante a entender es que ese concepto se transmite también a la vividez de los colores, como quizo Apple expresar con esta imagen simulado de un colibrí sin y con HDR: En resumen, si le muestras a 100 personas 2 televisores, una con HDR y baja resolución, y otra sin HDR y 4K, es bastante posible que el 99% de ellas te dirán que perciben una mucho mejor imagen con la versión del HDR, el cual muchos dicen (y yo estoy de acuerdo) que es el mayor salto de calidad que hemos dado con imágenes visuales desde que pasamos de los DVD a Full HD hace varios años atrás. 4K por el momento es una novedad para los afortunados que tengan televisores de gran tamaño y proyectores hogareños, y que de paso tengan contenido 4K que ver. Y hablando de contenido, ese es el gran problema con 4K y HDR, que por el momento el contenido es escaso, aunque servicios como Netflix ya tienen una buena selección de al menos 4K (no necesariamente con HDR), pero este solo puede ser disfrutados en TVs que no solo tengan 4K, sino un dispositivo que provea de una señal 4K al televisor (al menos que este sea un Smart TV con soporte interno para 4K). Por ejemplo, los populares Amazon Fire TV Sticks que millones de personas utilizan con sus televisores no pueden descodificar una señal 4K para tu TV 4K, y solo si compras el Amazon Fire TV de mayor precio y tamaño contarás con esa funcionalidad, y lo mismo aplica para el Google Chromecast y el popular Roku TV. Apple por su parte está tratando poco a poco de crear un ecosistema para el Apple TV en donde los estudios codifiquen sus películas nativamente para 4K HDR, y precisamente ese fue otros de los anuncios que hizo el martes, en donde anunció que todo el que haya comprado o rentado películas 1080p por iTunes en Apple TV obtendrá una actualización gratis a todas esas películas a versiones 4K HDR. Sin embargo, al menos al corto plazo aun con todos esos adelantos creo que el Apple TV tiene una batalla cuesta arriba a la hora de competir particularmente contra Amazon, Google y Roku a la hora de los consumidores adoptar dispositivos para ver películas por Internet. Esto se debe a que a diferencia de esos otros dispositivos que cuestan entre US$30 y US$90 dólares en promedio, Apple pide unos US$179 dólares por su Apple TV 4K, y soy de la opinión que a diferencia del iPhone en donde uno está dispuesto a pagar más (a diferencia de modelos genéricos de Android me refiero) por una mejor experiencia, los consumidores no creo que les moleste tanto la diferencia de experiencia que obtienen entre un Apple TV 4K de US$179 y un Amazon Fire TV Stick de US$39, particularmente cuando un usuario promedio quizás solo le interese utilizar Netflix, en donde el interfaz se ve bastante similar en ambos entornos. Eso sin mencionar lo fácil que es "hackear" el Amazon Fire TV Stick para instalarle KODI y ver "películas no autorizadas por Hollywood" gratis. Esto es algo que no se puede subestimar. El reto de Apple entonces es ver cómo incrementar el valor percibido de su Apple TV 4K en relación a esas otras opciones, y Apple aparenta que intenta hacerlo de dos formas. La primera es mercadear el Apple TV como una alternativa a consolas de video-juegos, cosa de lo cual el hardware del nuevo Apple TV 4K es más que capaz de hacerlo (Apple por primera vez sacó al mercado su propio GPU, o chip de gráficos con el nuevo Apple TV 4K y los iPhones 8 y X, y es 3 veces más potente que el GPU del iPad Pro), sin embargo no le veo mucho éxito al corto plazo a Apple con esto por distintas razones, de las cuales se me ocurren (1) Apple no está poniendo realmente un esfuerzo grande en mercadear el Apple TV 4K como una consola de juegos, al menos no todavía, (2) el control del Apple TV 4K aunque simple, es quizás demasiado simple y la historia nos ha enseñado que el 99% de los usuarios no comprarán el control de video-juegos opcional (que Apple vende aparte) si este ya no viene incluido en la caja (SEGA y Nintendo ambos tienen historia de horror en este tema en sus respectivos pasados), (3) los que tienen el poder adquisitivo de comprarse un Apple TV 4K posiblemente ya tengan al lado un PlayStation 4 o Xbox One o incluso el nuevo Nintendo Switch que está por el momento mejor adaptado a juegos, y (4) el resto sencillamente prefiere jugar en sus iPhones y iPads. Sin embargo la segunda forma en la que Apple planea diferenciarse es una que combina el combo del 4K y HDR, con películas de estreno, pero desgraciadamente para Apple, esta se ha dado cuenta lo difícil que es negociar con las cabezas duras y poco visionarias de Hollywood... Sucede, mis estimados lectores, que según rumores de pasillos (y puedo decirles sin darles detalles que estos rumores aparentan ser bastante ciertos), que Apple lleva ya desde el año pasado tratando de convencer a los principales productores de Hollywood de que hay que crear una plataforma universal a través de la cual los estudios puedan sacar las mismas películas que sacan en el cine, simultáneamente en casa (o en el peor de los casos, con 1 o 2 semanas de retraso), a un precio premium. Es decir, que en vez de ir al cine a ver la próxima entrega de Avengers, que sencillamente te reúnes con tus amigos (quizás con quien tiene su proyector en casa), y entre todos pagan para ver el estreno en la comodidad de los sofás del hogar. Esta idea, que yo mismo llevo años acá mismo en eliax advocando, es algo que estoy bastante seguro se dará tarde o temprano, y es solo cuestión de que alguien como Apple y algún estudio que decida arriesgarse hagan la prueba, pues estoy seguro que los resultados serán lo suficientemente exitosos (mayor de lo que los mismos estudios se imaginan, es mi opinión) como para convencer al resto de la industria. Sin embargo, hasta tanto una no se arriesgue Apple tiene una caja de US$179 dólares que muchos se preguntan por qué pagar más cuando pueden obtener algo similar a un costo 4 veces inferior... Así que mientras tanto, aun no sean del campamento que apoye a Apple, creo prudente e incluso inteligente apoyar a Apple con esta iniciativa, pues desde que se abran las compuertas a películas de estreno entraremos a una nueva era en donde se popularizarán los proyectores en casa, contenido 4K y HDR empezará a llover, y ya verán como esas películas empiezan a llegar también a dispositivos de la competencia. Aquí los únicos que no estarían tan felices (como he predicho antes) son los cines, pero esa ya es otra historia para otro artículo... El iPhone 8 y iPhone 8 Plus, una evolución del iPhone Lo más curioso de las esperadas sorpresas de los anuncios de los nuevos iPhones es que curiosamente no hubo casi sorpresas. Y no hubo sorpresas debido a que días antes se filtró al Internet una versión esencialmente final de iOS 11 con todo tipo de pistas de lo que veríamos el martes, en muchos casos confirmando rumores que tenían meses en la red. Sin embargo, aun así Apple logró impresionar a algunos cuantos, y de paso dejar mensajes subliminares sobre hacia donde se dirige su empresa, aunque en mi opinión las mejores pistas vinieron del Apple Watch, que podrán leer en mis impresiones del nuevo Apple Watch más abajo. Lo primero es, que Apple anunció nuevos iPhones 8 y iPhone 8 Plus, a diferencia del esperado patrón de sacar esta vez un iPhone 7S y un iPhone 7S Plus, y esto nos da la primera pista de que en el 2018 podemos esperar posiblemente todo un nuevo estilo de nombres en el iPhone (mi apuesta es a que regresaremos a simplemente "iPhone" o que continuaremos con la nueva "X"). ¿Amerita saltar el nombre del iPhone 7S a favor de un iPhone 8 para significar que este es un celular mucho más potente? Yo personalmente no estoy tan seguro, y creo que dependerá de cada quien decidir si las novedades que trae son suficientes para hacer el cambio, así que veamos que es lo nuevo que traen... El iPhone 8 (y por extensión en todo lo que hablemos aquí, el iPhone 8 Plus también) viene ahora con un cuerpo de cristal en vez metálico, que nos trae recuerdos del elegante iPhone 4, un material que fue elegido por Apple no por motivos estéticos sino por necesidad, ya que todos los nuevos iPhones anunciados soportan ser recargados sin necesidad de cables, de forma inalámbrica, y eso requiere que no pueden tener paredes metálicas que interfieran con la eficiencia del cargado sin cables. Sorpresivamente, y muy "des-Apple", la empresa decidió no implementar una solución propietaria, sino que adoptó el estándar "Qi" (pronunciado "Chí" en este caso) del Wireless Power Consortium (WPC), que es curiosa y convenientemente el mismo estándar utilizado por la mayoría de fabricantes Android, lo que significa que si tienes a alguien cercano con uno de esos cargadores inalámbricos para los Samsung Galaxy, milagrosamente los podrás utilizar también en los nuevos iPhones. Aplausos a Apple por esta medida que sin duda nos hará la vida mucho más fácil con miras a futuro, y que de paso al dar su bendición a Qi, permitirá que la industria se estandarice por fin en un solo estándar, y que próximamente cualquier restaurante, aeropuerto, u oficina que visitemos nos provea de estos cargadores en sus mesas. Aleluya. La gran pregunta ahora es si el poder recargar tu iPhone inalámbricamente representa una excusa suficientemente grande como para cambiar a un nuevo modelo, y "por ahora" la respuesta creo que será no para la mayoría de usuarios que por el momento están acostumbrados a cargar con cables. Sin embargo, esto cambiará en uno o dos años desde que los consumidores empiecen a acostumbrarse a esta modalidad y conforme se perfeccione la tecnología. En cuanto a la pantalla, esta viene ahora con la tecnología True Tone (que vimos primero en el iPad Pro 10.5" hace un año atrás), la cual permite (por medio de unos sensores que le indican al iPhone el nivel y calidad de luz a su alrededor) que la pantalla del iPhone se adecue a su medio ambiente para que los colores de su pantalla siempre sean lo más fieles posible a la realidad. Eso significa que si ves una foto tanto bajo el Sol, como en una oficina con luz fluorescente, o en tu cama con una pequeña lámpara de bombilla incandescente, que percibirás la misma imagen, incluyendo tonos de blanco como deben ser percibidos por nuestros sentidos. Es un pequeño detalle que honestamente no creo la vasta mayoría de personas aprecien, pero es uno de esos detallitos de Apple que a la larga se suman para una experiencia más placentera a los usuarios (yo sin embargo, no cambiaría mi iPhone a uno nuevo solo por este detalle, al menos que fuera un diseñador gráfico en donde la fidelidad de los colores sea una prioridad en mi vida). En cuanto a las cámaras, Apple introdujo mejoras en el hardware que permite que los nuevos iPhone capturen fotos con mejores colores, y menos ruido, particularmente en ambientes de poca luz, utilizando el poder de su nuevo chip (el A11 Bionic) que en tiempo real analiza las imágenes y aplica algoritmos de reducción de ruido automáticamente cuando sea necesario. Sin embargo hasta que juegue con estos nuevos modelos en mis manos no asumo que la diferencia vaya a ser muy grande en comparación con el iPhone 7 Plus que tengo, aunque sí quizás con versiones anteriores como el iPhone 6 hacia atrás particularmente. Sin embargo en donde Apple sí innovó esta vez fue en una integración que hizo entre los nuevos sensores de la cámara del iPhone 8 Plus (y iPhone X, pero no la del iPhone 8 estándar) y su chip A11 Bionic, que permite tomar información de profundidad tridimensional para crear un nuevo tipo de fotografías en donde puedes hacer dos cosas simultáneas (de las cuales les había especulado hace un año que Apple haría eventualmente), la primera siendo que puedes remover o reemplazar el fondo detrás de ti, y la segunda es que puedes re-iluminar los retratos de las personas. Estas cualidades son las dos cosas que más me tienen tentados a comprar uno de los nuevos iPhones, y permítanme explicarles brevemente. Debido a que las cámaras duales pueden estimar la distancia que una persona se encuentra frente al iPhone, así como la distancia de objetos detrás de la persona, y debido a que con algoritmos de Inteligencia Artificial (IA, incrustados nativamente en el A11 Bionic) el iPhone puede "entender" lo que es un ser humano frente a la cámara, este puede en tiempo real remover por completo el fondo, o incluso reemplazarlo, para lograr unos efectos que antes solo se podrían lograr con pantallas de fondo verde como en las películas de Hollywood o los noticieros con la persona que habla del clima frente a un mapa interactivo. Y por otro lado, debido a que los sensores "entienden" en tres dimensiones muy precisas lo que es una cara humana, y gracias a otros algoritmos de IA, los nuevos iPhones pueden "re-iluminar" (y una vez más, en tiempo real, sin esperar a que se procese nada) las escenas de retratos de personas, para crear ambientes totalmente diferentes al original bajo la cual se captura la foto (no confundir estos con simples filtros de Snapchat o Prisma, esto es muchísimo más avanzado). Eso significa por ejemplo (como mostró Apple en su presentación del martes) que puedes tomar un retrato de alguien frente a un rio, pero en tiempo real hacer que desaparezca el fondo, poner un fondo negro como si estuvieras en un teatro, e iluminar la persona con una luz "desde arriba" como si estuviera en un teatro, o quizás con un nuevo juego de luces "en los lados" como si estuvieras en tu propio estudio fotográfico profesional, y crear todo un nuevo tipo de retratos que antes sencillamente no podrían hacerse al menos que fueran en lugares específicos y con equipo por lo general bastante caros (esperen una inundación de fotos en Internet en los próximos meses con estos nuevos estilos conforme los usuarios empiecen a experimentar). A este nuevo tipo de fotografía Apple lo llama "Portrait Lighting" (algo así como "Iluminación de Retratos"), y en mi caso personal que amo el arte de la fotografía de retratos es una de las dos razones principales para comprar un iPhone 8 Plus (el iPhone 8 estándar debido a que contiene una sola cámara no puede hacer este truco). La otra posible razón de cambiar a un iPhone 8 (y en particular el Plus) es que el A11 Bionic contiene algoritmos más potentes incrustados en hardware para lidiar con Realidad Aumentada y Realidad Virtual, lo que hará de las experiencias que veremos en iOS 11 con ARKit algo aun mejor. Sin embargo, ojo, que si ya tienen un iPhone 6S en adelante (y particularmente el iPhone 7) que esos dispositivos serán bastante adecuados para este nuevo tipo de aplicaciones que inundarán el App Store en las próximas semanas, por lo que prueben primero antes de dar el salto. En términos de video, los nuevos iPhones mejoran lo anterior, pero honestamente el consumidor final promedio notará muy poca diferencia, y solo los usuarios más técnicos notarán o darán uso a cosas como video 4K a 60fps o video 1080p a 240fps. iPhone X y el iPhone re-imaginado Y esto nos lleva a la gran sorpresa (ya esperada) del día, el iPhone 10. Este modelo está supuesto a representar el 10mo aniversario del iPhone, y Apple no se detuvo en casi nada para hacer de este iPhone el mejor salto generacional del iPhone desde el salto al iPhone 3GS (que trajo un gran aumento de velocidad sustancial al iPhone), o al iPhone 6 Plus (con el salto a pantallas grandes). Pero la gran pregunta es ¿es este un modelo revolucionario o más bien evolucionario? Mi respuesta personal corta a esa pregunta es que es ambos, y les explicaré por qué a continuación... Es evolucionario por la sencilla obvia razón de que algunas de sus innovaciones (con respecto a otros modelos de iPhone) ya las habíamos visto en el mundo Android anteriormente, incluso desde hace años. Por ejemplo, la tecnología inalámbrica Qi yo mismo la he tenido disponible en mi otro equipo celular que cargo conmigo, el Samsung Galaxy Note 5 (que utilizo mayoritariamente con el Samsung Gear VR), y la tecnología de pantalla curvas en los bordes la misma Samsung lleva ya tres generaciones ofreciéndolo a sus consumidores, y en cuanto a pantallas OLED la misma Samsung no solo es pionera, sino que es quien curiosamente provee los paneles OLED del iPhone X a Apple (pues Samsung es el mayor fabricante del mundo de estas pantallas, razón por la cual Apple está invirtiendo en LG para que le haga competencia, para los que no están al tanto de estos "chismes tecnológicos" de los cuales me entero tras bastidores constantemente). Sin embargo, en algunas cosas Apple definitivamente se diferencia, e incluso innova. Para empezar (con las cosas más sencillas), es importante entender que aunque Samsung fabrica las pantallas OLED del iPhone X, que Samsung no las diseña. Samsung es propietaria de las maquinarias y procesos químicos necesarios para crear pantallas OLED, pero no es quien se las diseña a Apple. Apple fue quien diseñó su propia pantalla OLED, la cual (supuestamente) es más avanzada y de mejor rendimientos que las diseñadas y fabricadas por Samsung para sus equipos Galaxy. El proceso de fabricación de las pantallas OLED del iPhone X es mucho más complejo (y caro, pues debe además contener soporte para 3D Touch y tener compatibilidad completa con los esquemas de colores P3 y Adobe RGB, así como es la primera pantalla móvil del mercado capaz de mostrar imágenes en HDR) que el de las pantallas del Galaxy S8, y eso conlleva a una extraña y curiosa relación entre Apple y Samsung: Son enemigos a muerte en el mundo de los celulares, pero irónicamente Apple es el más grande cliente de Samsung, razón por la cual ambas empresas aun se quieran matar en las cortes judiciales por temas de patentes, tratan de mantener una relación hipócrita y diplomáticamente saludable... Así es el curioso mundo de los negocios... Aparte de que la nueva pantalla del iPhone X es del tipo OLED (que en este caso da un mayor contraste de los colores, y ahorro de energía), esta también es en teoría más grande que la pantalla del iPhone 8 Plus, aun el iPhone X es de un tamaño similar al iPhone 8. ¿Cómo es eso posible? Pues si comparan en la mano los tres nuevos equipos anunciados por Apple, notarán que la pantalla del iPhone X no tiene bordes (similar a los celulares Samsung de gama alta recientes), y que se extienden no solo a los lados, sino que además (y a diferencia de cualquier otro celular del mercado) hacia arriba y hacia abajo casi completamente. Salvo un "notch" (o "solapa" diría yo) arriba, el frente del iPhone X es prácticamente "todo pantalla", lo que significa que Apple pudo reducir considerablemente el tamaño del dispositivo y aun así seguir ofreciendo las ventajas de una pantalla grande. Pero ojo, que aunque Apple dice que la pantalla es "más grande" que la de un iPhone 8 Plus, en realidad en la práctica sería más o menos del mismo tamaño ya que Apple está midiendo también el borde de la pantalla (tal cual lo hacen otros fabricantes también), por lo que para fines prácticos el iPhone X es una pantalla del iPhone 8 Plus en el cuerpo de un iPhone 8. Este nuevo tipo de pantalla necesitó de Apple tener que decidir qué hacer con el icónico botón central del iPhone que nos acompaña (y en mi caso, amamos) desde el original iPhone. Apple tenía varias opciones, algunas elegantes (como incrustar el sensor del Touch ID detrás de la pantalla y tener un botón virtual que se sentiría como uno real con la tecnología de 3D Touch que ya vimos en el iPhone 7, el cual para sorpresa de muchos no tiene un botón mecánico abajo sino uno que da la sensación de ser uno), hasta opciones menos elegantes (como poner el sensor detrás, como han hecho algunos fabricantes Android), pero al final optó por algo que llaman Face ID ("Identificador de Cara"). Antes de explicar qué es Face ID, déjenme decirles que por meses han existido rumores de que Apple realmente quería incluir en el iPhone X un sensor de Touch ID con un botón virtual en el iPhone X, pero que sencillamente los experimentos dieron como resultado que esa tecnología de incrustar el Touch ID detrás de una pantalla OLED aun no está en un nivel con el cual Apple se siente cómoda para que sea confiable en su uso a diario, pero al menos yo mantengo las esperanzas de que el próximo iPhone pueda adoptar esa novedad (rumores dicen que Samsung por su lado ha tomado la idea y que está tratando de perfeccionar la tecnología para futuros Galaxy). Pero, ¿qué es Face ID, cómo funciona y por qué es importante? Face ID, en su núcleo, no es más que un sistema que integra sensores de 3D y las cámaras duales frontales del iPhone X, para crear un mapa de tu cara y saber que eres tu quien utiliza tu iPhone. El sistema literalmente proyecta más de 30,000 puntos en tu cara de forma invisible al ojo humano (pero visible a los sensores del iPhone X), para crear un mapa super detallado de tu cara en tiempo real, y después comparar esa cara 3D con una que almacenó previamente cuando usaste y entrenaste a tu iPhone X por primera vez, para comparar y darte acceso al celular. Noten que todo esto ocurre tras bastidores y en un abrir y cerrar de ojos, en tiempo real, por lo que no tienes que hacer nada para que esto funcione, y que funciona esencialmente a la perfección y (supuestamente) con mayor eficiencia que Touch ID. Apple incluso dice que en términos de seguridad Touch ID tiene 1 posibilidad en 50,000 de que una huella digital sea confundida con la tuya, pero que con Face ID las posibilidades son mucho más remotas, en el orden de 1 en un millón de caras. Es importante destacar, para los que vieron la presentación en vivo como yo, o los que leyeron al respecto en otros portales sin saber los detalles, que la primerísima vez que Apple demostró Face ID en escenario aparentó por un breve instante que no reconoció al presentador, y Apple posteriormente aclaró de forma oficial que eso era Face ID haciendo exactamente para lo que había sido programado, en el sentido de que durante la presentación otros presentadores habían tocado ese iPhone inadvertidamente y al momento que llegó su propietario este pidió una clave de acceso como confirmación de que el usuario que ahora intentaba ingresar era el real. Hago esa aclaración porque he leído muchos comentarios en Internet de personas que ya critican al sistema sin base, y ojo que muchos miembros de la prensa fueron dado acceso al sistema posterior a la presentación y todos de forma unánime testimonian que el sistema realmente funciona al instante sin error alguno. El Face ID sin embargo trae algunas incógnitas, un par de las cuales espero despejar a continuación... Lo primero es, ¿podría tu fiel pareja ponerte el celular en la cara en medio de la noche mientras duermes para entrar amigablemente y ver tus conversaciones de Whatsapp? La respuesta a esto es no. El iPhone X requiere de 3 cosas para darle acceso a su propietario al celular: (1) el usuario debe tener sus ojos abiertos, (2) el sistema utiliza algoritmos de IA para detectar no solo si los ojos están abiertos sino además si el usuario está "atento" al celular mirando directamente a la pantalla, y (3) hay que hacer un gesto de deslizar el dedo desde el borde del iPhone hacia arriba para entrar (esa es la única parte fácil de quien quiera violar tu privacidad). En otras palabras, Face ID solo deja entrar a su propietario si este está atento a la pantalla con intención de entrar a ella. La otra pregunta que viene a la mente es, si ahora no hay un botón abajo, ¿qué lo reemplaza? Y la respuesta es el mismo gesto del paso 3 que describí dos párrafos atrás: Sencillamente deslizar tu dedo desde el borde de abajo hacia arriba y listo. En otras palabras, si quieres ir a la pantalla principal del iPhone desde adentro de alguna App, sencillamente deslizas tu dedo hacia arriba. Y si quieres lanzar el gestionar de aplicaciones sencillamente deslizas tu dedo hasta la mita de la pantalla y pausas. Honestamente en mi impresión actual creo que prefiero el botón a ese gesto, pero ya en la práctica veré. Por ahora le doy a Apple cautelosamente el beneficio de la duda... Pero algunos preguntarán ¿y qué sucederá con los controles que antes subían cuando una deslizada el dedo hacia arriba? Pues hora los accedes haciendo un movimiento hacia abajo con tu dedo es el borde superior. Noten que los iPhone actuales ya tienen un el sistema de notificaciones que baja cuando uno desliza el dedo hacia abajo, y la próxima pregunta es ¿y esa funcionalidad hacia donde va ahora? Pues se queda ahí mismo, pues sucede que ahora que el iPhone X tiene un "solapa" para los sensores frontales arriba en el centro, que ahora cada uno de los dos lados de esas "orejas" funciona como un área para deslizar el dedo hacia abajo. Un lado baja las notificaciones, y el otro el Centro de Control. Esto en la práctica será mucho más sencillo que todo esto que escribo aquí y estoy seguro que los usuarios se acostumbrarán muy rápidamente a los nuevos gestos... Habiendo pasado el trauma de la nueva pantalla sin borde y con nuevos gestos para controlar el iPhone X, ¿qué más es nuevo? Pues la gran novedad es que el iPhone X ahora tiene doble cámaras frontales (aparte de doble cámara traseras) más todos los sensores de profundidad de atrás, lo que significa que ahora puedes tomar fotografías con Portrait Lightning (como expliqué previamente) no solo con la cámara de atrás, sino también con las frontales para todo un nuevo tipo de selfie. Pero no solo eso, debido a la tecnología utilizada para Face ID, Apple ahora puede "mapear" tu cara a personajes animados y crear una nueva generación de emojis (las caritas esas que la gente pone en los chats) que no solo son animados, sino que son animados por tu cara, y esta funcionalidad exclusiva al iPhone X Apple llama "Animojis". Esto significa que ahora en vez de estar buscando en el teclado de emojis la carita que mejor exprese el sentimiento de lo que quieres escribir, que ahora podrás tu poner la cara que quieras y el animoji emulará tu expresión, y no solo para imágenes de emojis, sino que para crear emojis animados con tu cara en videos (de ahí el nombre, "emojis animados", o "animojis"). Así que por ejemplo podrás enviar todo un video hablando de algo alguien, pero en vez de alguien ver tu cara hablando estos verían un animoji (digamos, un perrito) hablando como si fueras tu, con todo el rango de expresiones de tu cara. Esta es una de esas cosas que no se plasman de forma tangible en las especificaciones de una hoja de papel, pero que en la práctica testifican sobre las ventajas de Apple controlar todo su hardware y sistema operativo para crear este tipo de novedades. Esperen próximamente que otros como WhatsApp y Snapchat tomen ventaja de Face ID para crear toda una nueva generación de animojis y tecnologías similares (en la presentación del martes por ejemplo, Apple demostró una versión de Snapchat con filtros muy superiores a lo que pueden hacer hoy con las tecnologías actuales). Cabe agregar también que las cámaras del iPhone X, en particular en materia de apertura de lentes y estabilidad óptica fueron mejoradas un poco por sobre las del iPhone 8 Plus, por lo que podrán esperar aun mejores fotos con este modelo. Así que en resumen, podemos sintetizar el iPhone 10 como un celular que es todo pantalla, con las ventajas del tamaño del Plus pero en el cuerpo del tamaño estándar, con mejores cámaras, con sensores frontales para Face ID, y al igual que el iPhone 8 con capacidad de recargarse inalámbricamente. Si estas cosas son suficientes para que hagas el upgrade nota que te costará, ya que los precios del iPhone X inician en US$999 dólares para el modelo base de 64GB, y que tendrás que dejar ir de tus bolsillos US$150 más para el modelo de 256GB... Sin embargo, es bueno aclarar que en la práctica serán muy pocos los que paguen esos montos, por dos motivos principales. El primero es que el iPhone por lo general se vende subsidiado por las telefónicas, y el segundo es (para los que no lo tenemos subsidiado) que a diferencia del mundo Android, los iPhones retienen gran parte de su valor (es decir, se devalúan muy poco). En mi caso en particular posiblemente pueda vender mi iPhone 7 Plus de 128GB entre los US$600 y US$700 dólares en el mercado local, un año después de haberlo adquirido, por lo que en mi caso si decidiera comprar el iPhone 8 Plus o incluso el iPhone X mi costo sería mucho menor del precio de venta al detalle. Esto es algo a tomar mucho en cuenta a la hora de criticar los precios de iPhones, particularmente en relación a los de gama alta de la linea Samsung Galaxy, en donde al tomar en cuenta el costo de reemplazar el equipo anterior te das cuenta que pagas mucho más que por equipos equivalentes del mundo iPhone. Sin embargo, aquí hay mucho más de lo que vemos en la superficie. El iPhone X, es en muchas formas también revolucionario, y ahora explico por qué. Lo primero es que el concepto de Face ID, aun ya se haya intentado en el mundo Android anteriormente, está implementado de una forma totalmente diferente a sus contrapartes, y permitirá por fin toda una nueva generación de aplicaciones nunca antes vistas. Para empezar, recordemos cuando Samsung introdujo reconocimiento facial en sus modelos más recientes. Hizo esto de forma apresurada solo para poder ser pieza de conversación entre fanboys de Android que aman mencionar todas las cosas que Android supuestamente hizo primero que iPhone y que Apple posteriormente "copió". En ese intento de reconocer caras se hizo vergonzosamente evidente que este sistema de reconocimiento facial implementado por Samsung no servía para nada, ya que solo basta con poner una fotografía impresa de la persona para engañar al sistema y entrar al celular. Y Samsung sabía eso, tanto así que especificó que ese método de entrada no podría ser utilizado para asegurar transacciones de pagos ni para sistemas sensibles. ¿Por qué? Porque a diferencia de Face ID, el 100% de todos los otros sistemas en el mercado lo único que hacen es tomar una foto de tu cara, y analizar esa imagen plana y bi-dimensional de tu cara para ver si se parece a otra foto capturada tuya previamente. Esto está bien como un proyecto estudiantil o académico para reconocer caras, pero nada que alguien con un poco de cerebro implementaría en la práctica para darle seguridad a nada. El sistema de Face ID, literalmente "dibuja" con una serie de miles de puntos una "máscara" invisible y tridimensional sobre tu cara, y es eso lo que analiza, en vez de una imagen plana, aparte de que con IA analiza que estés viendo y poniendo atención conscientemente a los sensores con tus ojos. No solo es este sistema infalible con el uso de fotografías, sino con incluso de máscaras de latex hiper-realísticas creadas por expertos en maquillaje de Hollywood, y es la razón por la cual no solo es más efectivo que leer una huella digital, sino que Apple se siente en plena confianza de declarar que es un substituto de Touch ID para el pago de transacciones y acceso a información sensible. Face ID también hace incapié en un tema filosófico de Apple versus la industria que se mueve entorno a Android: Apple es fiel creyente de que tus datos privados (incluyendo tu identidad biométrica) deben ser de tu propiedad y residir solo en tu equipo, razón por la cual Apple diseño e incluyó en los tres nuevos iPhones un nuevo chip integrado dentro del paquete del A11 Bionic llamado el Neural Engine (del cual les traje la primicia hace varias semanas atrás por las redes sociales de #eliax). Este chip hace (entre otras cosas que detallo más adelante) mucho más eficiente el reconocimiento de tu cara en 3D y en tiempo real, pues de lo contrario la única otra forma de hacerlo sería con el CPU del celular (que impactaría fuertemente la batería) o en la nube (como es la costumbre de Google y de Android en general) en cuyo caso tu huella digital y máscara de cara saldrían de tu celular al internet público, en donde quien sabe bajo cuáles manos podrían caer esos datos. Recordemos que a diferencia de una simple clave de email que puedes cambiar si alguien que la viola, que tu huella digital y tu cara son elementos fijos de quien eres, y que desde que te roben esos datos biométricos en internet estarás a merced de hackers de por vida. Es bueno agregar como bono adicional, que el Neural Engine es tan potente y eficiente, que sus algoritmos de IA detectan tu cara incluso según vayas envejeciendo, o cambiando tu estilo y color de cabello, o incluso si utilizas gafas y maquillaje, y en caso de hombres funciona independientemente de si tienes pelo facial o no. El Neural Engine de paso acelera operaciones de las nuevas funcionalidades de CoreML (Core Machine Learning) y ARKit (Augmented Reality Kit), que permitirán toda una nueva generación de aplicaciones de Inteligencia Artificial y Realidad Aumentada, que será bastante difícil de emular en ambientes Android por el momento, al menos que se tenga un equipo muy reciente y de gama alta (y aun así, dependerá para varias cosas de procesamiento remoto en la nube conectados a Internet). De paso este nuevo chip también dotará a Siri de mejoras que van desde una voz más natural y humana, hasta aprender mejor de patrones de uso y reconocimiento de voz, cosas que poco a poco harán de Siri mejor de lo que es (pues en mi opinión en algunos aspectos los asistentes de Google, Amazon y Microsoft ya le han pasado a Siri). Otro elemento importante es que el conjunto de sensores en la solapa del tope del iPhone X dotarán a Apple de una ventaja competitiva por un tiempo significativo, pues las empresas que diseñan y fabrican esos sensores de Face ID son muy pocas, y estas tienen ahora un acuerdo exclusivo con Apple, quien ahora no solo controla la producción de esos sensores, sino además gran parte de las patentes detrás de estos. ¿Qué significa eso? Que pasará un tiempo antes de que el campamento Android pueda emular al iPhone con estas nuevas tecnologías, y aun así es posible que inicialmente lo hagan con tecnologías alternativas inferiores, y cuando ya maduren sus opciones incluso así tendrán el problema de que solo un muy diminuto subconjunto de los equipos Android tendrán acceso a esas tecnologías, debido a la alta fragmentación inherente en el campamento Android. En resumen, Face ID y sus asociadas aplicaciones (que van desde pagar transacciones hasta los animojis) son ejemplo de que la integración vertical propietaria que Apple tiene en sus productos está rindiendo frutos y hará cada vez más lento el acceso a tecnologías de punta en el campamento Android en relación a la velocidad con la cual Apple puede innovar debido a que controla todo su ecosistema. Sin embargo, al final del día el iPhone X es solo una evolución natural al iPhone, pues si quieren ver realmente a las primeras pistas del futuro del iPhone, entonces deben entender bien lo que ocurre tras bastidores con el Apple Watch Series 3, del cuál hablo a continuación... El Apple Watch Series 3, y el futuro del iPhone El Apple Watch sin duda que ha sido uno de los productos más controversiales de Apple. Nacido bajo la tutela de Tim Cook y no de Steve Jobs, muchos han visto al Apple Watch como un intento de crear un producto que realmente nadie necesita. Sin embargo, eso está empezando a cambiar, y las predicciones que hice en mis charlas al momento de anunciarse el Apple Watch (de que sería el sucesor del iPhone) están empezando a tomar forma. Veamos como, pero antes quiero hacer una reseña de que al corto plazo el mayor factor de ventas del nuevo Apple Watch podría ser sus facilidades para monitorear nuestra salud, particularmente nuestro ritmo cardíaco, en donde Apple con el nuevo modelo ya puede incluso detectar imperfecciones en nuestros ritmos que en primeras pruebas ya han literalmente empezado a salvar vidas. Esta es incluso la primera vez que he contemplado la posibilidad de adquirir el Apple Watch, por este tema de cuidar mi salud (y la de mis familiares cercanos). Pero regresando al análisis, notemos que el nuevo Apple Watch Serie 3, independientemente de sus mejoras con un procesador más eficiente y ser a prueba de agua y tener mejores sensores de salud, viene ahora con una opción (inicialmente en algunos países, a expandirse luego) de tener conectividad celular LTE. Algo muy inocente. Aparentemente. Eso significa que el Apple Watch ahora no depende de un iPhone cercano para conectar sus Apps al Internet, sino que ahora puede funcionar totalmente separado de un iPhone. Eso de inmediato trae ventajas que van desde una implementación completa de Siri (que ahora te habla de regreso), hasta acceso a servicios como Apple Music y a hacer llamadas de forma más natural. Sin embargo, la otra gran cosa anunciada y de la cual estoy seguro Apple no quiere que se hable mucho ya que revela (en mi humilde opinión) hacia donde va la empresa, es la integración con los AirPods, esos audífonos de forma extraña que aparentan ser los clásicos audífonos blancos de Apple, pero sin cables. Los AirPods utilizan una tecnología propietaria de Apple con un chip llamado el W1 (y ahora, el W2) que no solo ofrecen hacer el pareo ultra sencillo (solo acercas los AirPods a otros productos Apple con W1/W2 y estos automágicamente se unen sin intervención adicional tuya), sino una mejor integración de calidad de sonido multi-canal y con un mucho menor consumo energético (algo importante para dispositivos tan pequeños y con espacio limitado para baterías). Aparte de eso tienen un diseño que realmente no se salen de la mayoría de orejas, por increíble que parezca (hay que probarlos para entender el tipo de genios que trabajaron en eso). ¿Qué es lo interesante de esto? Que ahora con el micrófono de alcance lejano del Apple Watch, y los micrófonos de los AirPods, esencialmente tienes una computadora inalámbrica en tu cuerpo. Puedes por ejemplo decirle a Siri que llame a una amiga, la llamada se hace y empiezas a hablar naturalmente "en el aire" con un interfaz "invisible". Similar si quires escuchar una canción, o revisar tu agenda. Pero esto es tan solo el inicio, ahora entramos en lo realmente interesante... En iOS 11 Apple introduce una tecnología que se llama ARKit que permite que cualquier iPhone o iPad reciente pueda ejecutar una nueva generación de aplicaciones de Realidad Aumentada, en donde se combinan imágenes del mundo real (vistas a través de la cámara) con imágenes sintéticas generadas internamente, pero lo interesante es el alto grado de precisión que Apple logra al superimponer esas imágenes sintéticas en el mundo real, creando la ilusión de que ambos mundos conviven. Esto a simple vista proveerá toda una nueva generación de aplicaciones que van desde juegos hasta aplicaciones de turismo, y desde redes sociales hasta aplicaciones en educación e ingeniería y diseño que de por sí crearán toda una nueva industria valorada en varios miles de millones de dólares (si son desarrolladores de software, este es un gran momento para subir al tren de la Realidad Aumentada). Sin embargo, para mi con ARKit lo que Apple está haciendo es sigilosamente crear una armada de desarrolladores de Apple que en un futuro no lejano (uno o dos años) podrán transformar sus Apps en un dos por tres para que funcionen casi instantáneamente con gafas de Realidad Aumentada creadas por Apple, un tanto similar al intento del Google Glass, pero definitivamente muchísimo más pulido, elegante, práctico y funcional. Esas gafas, conectadas de forma inalámbrica a un Apple Watch podrían ofrecerle a este la pieza faltante en un interfaz en donde la información visual que accedemos es de suma importancia pero en donde una pequeña pantalla en un Apple Watch no puede ofrecer. Combinen entonces un Apple Watch, con AirPods y con lo que por ahora llamaré "AirGlass" (invento mío) para generar información visual directo a los ojos, y ya pueden imaginarse por qué especulo que el Apple Watch es el inicio del futuro del iPhone... - ¿Tienen observaciones y preguntas? Escríbanlas en los comentarios abajo, y trataré de leerlas y responderlas en la medida que el tiempo me lo permita. Espero hayan disfrutado el análisis y gracias por visitar el blog para leer estos artículos kilométricos intermitentes ;) autor: josé elías |
46 comentarios
612,207 vistas |
Apple / OS X , Cámaras Digitales , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Realidad Virtual , Tecnología Visual |
lunes, septiembre 4, 2017
|
Hoy día capturar una foto en nuestros celulares es algo tan cotidiano, que jamás nos detenemos a pensar cómo inició todo, y hoy quiero hablarles de la extraordinaria historia de cómo se capturó (y diseminó) la primera foto jamás capturada por medio de un celular.
¿Y por qué digo extraordinaria? Pues por la razón de que fue un invento "del momento", por un padre que sencillamente quería inmortalizar el nacimiento de su hija, y gracias a tener conocimientos técnicos, pudo literalmente improvisar una "cámara celular" en la misma habitación del hospital en donde nació su hija. Todo esto ocurrió el 11 de Junio del 1997, en donde la esposa del ingeniero Phillipe Kahn estaba a punto de dar a luz, y en uno de esos casos en donde se enciende una bombilla de ideas en nuestras cabezas, a Phillipe se le ocurrió que él podría conectar su cámara a su celular por medio de una laptop, y enviar la foto instantáneamente a todo el mundo, si tan solo pudiese conectarlos de alguna manera... Entre él y su esposa idearon que él fuera a su automóvil, despegara varios de los cables de este, buscara una soldadora eléctrica y empezara "a pegar cables" hasta lograr una conexión (asumo que de modem serial, para los que venimos de esos tiempos), entre la cámara, la laptop, y el celular. Después utilizó un programa de terminal (una especie de software que hoy rara vez se utiliza en consumidores) que tenía en su laptop, para conectarlo a un sistema de archivos remotos (FTP), y después este a un sistema de correos, y cuando llegó el momento de salir la bebé Sophie del vientre de su madre, Phillipe acomodó todo el cúmulo de cables que tenía, cargó por primera vez a su hija, y capturó una foto (la que acompaña a este artículo) que será recordada para toda la posteridad. Tan pronto la foto fue capturada esta fue automáticamente enviada a unos 2,000 contactos de amigos, familiares y socios de Phillipe, siendo esta la primerísima vez en la historia que una foto es capturada digitalmente y enviada vía celular a otros seres humanos en tiempo real. Por eso se considera la fecha del 11 de Junio del 1997 no solo como el nacimiento de Sophie la hija de Phillipe, sino también como el nacimiento de la primera "cámara celular". Para los más curiosos, en este enlace pueden ver un corto en National Geographic que reenacta en video (en inglés) ese histórico día. Me sacó las lágrimas. autor: josé elías |
16 comentarios
560,730 vistas |
Cámaras Digitales , Celulares / Móviles , Curiosidades , Tecnología Visual , Videos |
viernes, septiembre 16, 2016
|
Hola amig@s lectores,
Como algunos ya saben, este blog oficialmente llegó a su fin con mi artículo #10,000 en Feb. 2014 (que pueden leer aquí), pero de vez en cuando (como ahora) algunas cosas captan mi interés y las comparto acá con ustedes. Esto lo digo debido a la gran cantidad de personas que continúan escribiéndome constantemente lamentando que ya no dedico tanto tiempo al blog, o desconociendo el hecho de que llegó a su final hace un tiempo atrás. A esas personas les doy las gracias por seguirme durante 10 años, y quien sabe, se dice que en un futuro no lejano veremos más contenido de eliax en video... Pero vayamos al tema de hoy. Como la mayoría ya sabrán, hace pocos días Apple lanzó sus esperados iPhone 7 y iPhone 7 Plus, y como había comentado yo por meses a título de rumor por mi cuenta de Twitter, el iPhone 7 Plus vino con una innovadora cámara dual, que aunque para algunos aparentará solo una justificación para Apple cobrar más, lo cierto es que esta cámara dual representa el inicio de una revolución en cámaras, y hoy planeo hablarles de por qué. Antes que todo, y para ahorrarle tiempo a los fanboys de Android en los comentarios abajo, es bueno notar que Apple no es la primera empresa que implementa un sistema de cámara dual en un celular, sin embargo, y típico de Apple, la implementación en el iPhone supera a esfuerzos anteriores, y contiene tecnología que deja completamente detrás todo adelanto previo en materia de imágenes digitales, tanto a nivel de celulares, como incluso (y explicaré brevemente por qué) a nivel de cámaras profesionales... La historia de esta cámara inicia cuando se hizo público en abril del año pasado que Apple había adquirido la empresa israelí Linx Imaging. Esta es una empresa que yo curiosamente había seguido previo a la adquisición ya que su tecnología causó mucho interés en la comunidad de los que amamos adelantos visuales de todo tipo. La empresa Linx había perfeccionado una técnica que permite combinar las imágenes de entre 2 y 4 lentes, para crear una imagen compuesta de mucho mayor calidad que cualquiera de las originales, asistiéndose más que en la óptica en la computación. Es decir, las imágenes que salen de un iPhone 7 Plus (cuando utiliza ambas cámaras, una de plano ancho, y otra estilo zoom) no son estrictamente la imagen que se capturó con los lentes, sino que fueran "calculadas" computacionalmente, analizando ambas imágenes y creando una imagen compuesta. Ese proceso es extremadamente complejo y pesado, y pondría de rodillas a incluso una PC de alto rendimiento de hoy día (como era el caso de los prototipos de Linx internos), pero en el iPhone 7 Plus ocurren no solo de forma fluida y con un bajo consumo energético, sino además en tiempo real, esto sin duda debido a que Apple ha incluido circuitos que implementan los algoritmos necesarios para estos cálculos directamente en sus chips (posiblemente a nivel del GPU de gráficos), lo que es todo un logro técnico digno de aplaudir por los geeks que gustamos de estos temas. Pero, ¿qué tiene de innovador este sistema, y qué es lo que lo diferencia de los demás? Pues empecemos diciendo que lo que estamos viendo en el iPhone 7 Plus es apenas la puntita de un témpano de hielo en capacidad y funcionalidades. Sucede que Linx desarrolló toda una tecnología modular, que puede utilizar 2, 3 o 4 lentes, en distintas combinaciones de tipos de lentes (desde a color hasta monocromáticos y hasta en rango óptico invisible al ojo humano), que permite lograr una gran cantidad de efectos, a distintos costos, y lo que vemos en el 7 Plus no es más que la implementación más básica de esta tecnología. Sin embargo, es bueno aclarar que eso no significa que el iPhone 7 Plus hace poco o toma poca ventaja de las posibilidad, sino que simplemente por el momento Apple se está reservando su uso para ir sacando funcionalidad poco a poco, conforme la vaya perfeccionando. Por ejemplo, hoy día el iPhone 7 Plus toma ventaja de la tecnología Linx para permitir hacer zoom óptico entre 1x y 2x, lo que de por sí no es más que cambiar entre la cámara de la izquierda y la de la derecha, pero antes de fin de año Apple lanzará una actualización que permitirá darnos una gustación de cosas por venir, cuando permitirá un nuevo modo de capturar retratos de personas. Bajo esta nueva modalidad, el sistema Linx del iPhone 7 Plus examinará la imagen frente a los lentes en tiempo real, detectará con Inteligencia Artificial si una persona está frente a la cámara, y utilizará una combinación del lente amplio junto al de zoom para con un lente capturar la imagen de la persona, y con el otro la imagen del fondo, y después computacionalmente combinar la imagen y desenfocar más el fondo, produciendo un efecto que se llama bokeh entre aficionados de cámaras DSLR de gran tamaño. El efecto bokeh no es más que hacer que la persona salga bien enfocada, pero el fondo bien difuso, creando un efecto visual estéticamente placentero. Ver un ejemplo que capturé en un carnaval dominicano con este efecto. Y noten que aunque otros celulares han intentado hacer algo similar, que pueden estar seguros que el iPhone 7 Plus ofrecerá el efecto más perfeccionado de todos. Sin embargo, esto es tan solo el inicio... Otra particularidad del sistema Linx es que la combinación de los sensores y software propietario permite crear depth maps ("mapas de profundidad"), que en esencia le permite saber al iPhone 7 Plus exactamente qué tan lejos del celular está cada pixel que se captura. Esto es un poco similar (aunque no tan potente) como el sistema de las cámaras Lytro de las cuales les he hablado por años acá en eliax (leer esto por ejemplo), y similar a los mapas de profundidad generados por el Kinect del Xbox, pero con mayor precisión. Con estos mapas de profundidad se pueden lograr todo tipo de cosas que hasta hace poco aparentarían ser magia. Por ejemplo, si estoy filmando a alguien con la cámara del iPhone, y detrás de esa persona que estoy filmando hay una multitud de personas distrayendo la toma, el celular puede saber exactamente cuáles pixeles están detrás de la persona y reemplazarlos por cualquier otra imagen. En otras palabras, sería posible hacer video-conferencia en donde solo salgas tu, y de forma automágica se remueva todo el fondo detrás de ti, lo que más allá de su gran impacto "wow", tiene muchas aplicaciones en documentales, cine, o incluso adquisición de video para noticias (el mercado ENG para el que sepa de lo que estoy hablando). Ojo, que esto no significa que el sistema actualmente incluido en el iPhone 7 Plus pueda hacer eso hoy día, pero sí les estoy diciendo que es lo que podemos esperar en las próximas generaciones del iPhone y otros dispositivos de Apple. Así mismo es bueno notar que algunas de las cosas que puede hacer la tecnología Linx dependen de tener no solo dos, sino que incluso 3 o 4 lentes especializados, por lo que queda mucho campo por explorar para Apple en futuros iPhones. Entre las cosas que permite la tecnología Linx se encuentran: 1. Capacidad de remover el fondo de fotos o videos. 2. Capacidad de capturar fotos y videos en 3D estereoscópico. 3. Capacidad de utilizarse en aplicaciones de Realidad Aumentada, en donde objetos virtuales tridimensionales son insertados de forma natural detrás, delante, y en medio del mundo real. En mi opinión Apple tomará mucha ventaja de esto en futuras generaciones de sus plataformas de Realidad Aumentada y Virtual. 4. Capacidad de medir con mucha exactitud objetos. 5. Capacidad de "enfoque instantáneo" del lente, muchísimo más rápido que lo implementador por Samsung en su serie Galaxy S7 o algunas recientes cámaras DSLR de Sony con tecnología dual-phase. Esto sería toda una revolución en el campo del video. 6. Capacidad de capturar los depth-maps en video para uno poder re-enfocar la escena a su antojo (compitiendo directamente con las soluciones de Lytro). 7. Escaneo/digitalización de objetos físicos para convertirlos en objetos virtuales en 3D. 8. Captura de movimiento tridimensional. 9. Reconocimiento biométrico (particularmente facial). 10. Capacidad de exponer todos estos datos a terceros para que inventen nuevas soluciones aun no pensadas por nadie. Noten que por el momento en iOS 10 Apple no tiene todavía un API (interfaz de programación) para terceros, pero no duden que eso está siendo preparado en estos momentos. Es bueno también notar que más allá de esa lista, el sistema Linx, aun en su forma más básica (como implementada en el iPhone 7 Plus) permite otra gran cantidad de ventajas, como son: 1. Capacidad de producir fotos con mucho menos ruido, al combinar más de una imagen para analizarlas y crear una nueva. 2. Capacidad de producir un más amplio rango de colores (como ya se puede apreciar en el iPhone 7 y iPhone 7 Plus). 3. Un incremento en sensibilidad de luz, lo que significa mejores fotos en ambientes oscuros. Noten que en futuros iPhone Apple podría incluir un tercer sensor monocromático que incrementaría la sensibilidad a la luz por un factor de 3, para incrementar sustancialmente la calidad fotos en bajos ambientes de luz. Ahora la gran pregunta es, ¿cuáles de todas estas funcionalidades veremos en el iPhone 7 Plus por medio de actualizaciones y/o aplicaciones de terceros, y cuáles necesitarán de nuevo hardware en el iPhone 8 o iPhone 9? De lo que si podemos estar seguros es que estamos ante el nacimiento de toda una nueva revolución en material de imágenes digitales, y los usuarios del iPhone 7 Plus serán los primeros en experimentarla, particularmente después de la actualización que saldrá en los próximos meses. Finalmente, noten que el campamento Android no se quedará atrás, ya que al menos una empresa ha anunciado tecnología similar a la de Linx, sin embargo y como ocurre siempre, esta posiblemente será específica a solo algunos celulares Android, y al inicio quizás requieran de modificaciones propietarias al sistema operativo, pero no duden que en estos momentos Google debe estar planeando ya en cómo estandarizar esta tecnología para que también sea parte estándar de celulares Android en un futuro no lejano. Que viva la competencia... :) --- Si son curiosos, he aquí una presentación que alguien salvó a la nube de Internet antes de que Apple comprara a Linx y removiera toda información mercadológica y técnica de sus sistemas. Otro enlace de interés un poco menos técnico Página oficial del iPhone 7/Plus Acá un enlace de la mejor cobertura que he visto sobre la nueva cámara del iPhone 7/Plus. Noten que tanto el video que verán como las fotos fueron capturadas con el iPhone 7/Plus. En este artículo hablé previamente de Linx acá en eliax, de su competencia, y de su futuro impacto que estamos viendo hoy. autor: josé elías |
122 comentarios
1,133,577 vistas |
Apple / OS X , Cámaras Digitales , Futuro Digital , Pregunta a eliax , Tecnología Visual |
jueves, agosto 6, 2015
|
¿Recuerdan las fotos capturadas con los primeros celulares semi-modernos, por allá hace una década atrás? Las imágenes eran desastrosas, oscuras, y pocos hubiesen imaginado que llegaríamos a la calidad de imágenes que podemos obtener hoy día con un iPhone 6 o Galaxy S6. Sin embargo, esto es solo el principio...
Si observamos bien las cifras y las tendencias, en los próximos 1 a 3 años tendremos celulares con no solo una calidad similar o superior a la mayoría de cámaras DSLR de hoy día de rango medio (y quizás hasta alto, eventualmente), sino incluso con los mismos efectos ópticos (como fondos difusos logrados con grandes aperturas de lente) que caracterizan a estas. Pero antes de continuar, un breve párrafo para los que no tienen conocimientos técnicos de estos temas: Un cámara "DSLR" no es más que una de esas cámaras grandes cuyos lentes son intercambiables. Eso es todo... Existe una tecnicalidad con un tipo de cámara que se llaman "mirror-less" ("sin espejos"), pero para nuestra discusión de hoy también podemos considerar esas cámaras de lentes intercambiables como DSLR. Ahora continuemos... Ahora bien, los de conocimientos más técnicos deben estar bastante escépticos con mi afirmación de hace par de párrafos atrás, particularmente con el tema ese de fondos difusos, ya que técnicamente eso solo se puede lograr con lentes de gran apertura y sensores más grandes, pero sin embargo eso no es enteeeeramente cierto... Si recuerdan, hace un par de años escribí un artículo en donde les enseñaba como lograr el efecto "bokeh" (el término técnico para un fondo difuso) de tres formas distintas, pero eso era un artículo práctico para ser útil a todo el que tuviese una cámara, pero realmente existe otra forma alternativa de lograr ese efecto bokeh, o incluso de uno poder enfocar y desenfocar al antojo cualquier plano de la imagen, y esa forma es con computación. Por "computación" hablamos de que de alguna forma la cámara obtiene información adicional sobre la imagen en frente de esta, información más allá de los simples rayos de luz que entran el lente tradicional de una cámara y que caen en un sensor tradicional. Más específicamente lo que deseamos es obtener información de profundidad, es decir, qué tan lejos o cerca de la cámara están los objetos que aparecen en la foto. Y existen al menos dos formas distintas de obtener esa información adicional. Una es con un nuevo tipo de sensor que permite capturar no solo la magnitud de los rayos de luz (es decir, que tan claros o oscuros son), sino además su dirección (es decir, el ángulo con el cual llegan esos rayos al sensor). Esta primera forma fue minada por la empresa Lytro quien con sus cámaras del tipo "Light Field" ("Campo de luz") permite que tomes una fotografía, y posteriormente puedas enfocar en donde desees. Esto se logra debido a que si es posible computar las propiedades de la luz en términos de sus ángulos de incidencia en relación al sensor, uno puede determinar también el nivel de profundidad (distancia desde el objeto hasta la cámara) de cada pixel (punto de imagen) y por tanto puede tener calculado a qué distancia están todos los objetos de la foto entre sí, lo que permite que por medio de algoritmos de difusión de imagen, uno pueda selectivamente poner "borroso" o "nítido" cualquier punto de la imagen. Pero existen una segunda forma de lograr el mismo efecto, y es utilizando sensores tradicionales, pero con múltiples lentes, o más bien dicho, múltiples cámaras a la vez. La idea es que si puedes capturar la misma fotografía desde varios ángulos o puntos de vista diferentes, que entonces puedes estimar la distancia entre los objetos de la imagen, y es precisamente así que funciona la visión humana, en donde debido a que tenemos dos ojos, podemos estimar la profundidad del mundo que nos rodea de forma tridimensional, calculando la diferencia de imagen entre los dos ojos. Pues bien, dos empresas actualmente están desarrollando productos que toman ventaja de este efecto, utilizando entre 2 y hasta 11 micro-cámaras simultáneamente, y lo mejor del caso es que esas cámaras no tienen que tener una alta resolución, ni utilizar lentes de ultra alta calidad, ya que es la combinación de todos los pixeles de esos sensores, y de las distintas perspectivas de cada uno de los lentes del sistema, que son unificados en una sola imagen por medio de computación, en esencia calculando una imagen superior a cada una de sus partes inferiores (lo que contribuye a que este sistema pueda hacerse con relativo bajo costo). Las dos empresas que están desarrollando esta tecnología son LinX, y Light. De las dos empresas, LinX aparenta tener el mayor potencial y la tecnología más avanzada y madura, y curiosamente en abril de este año Apple adquirió la empresa y ya existen rumores de que el iPhone 7 del próximo año podría incluir su tecnología. Mientras tanto Light está en su segudo round de financiamiento y ya tiene de socio a Foxcom (la misma empresa que fabrica iPhones para Apple) para crear sus primeros prototipos a finales de este año 2015 (o en el 2016), por lo que pueden estar seguros que el campamento Android tendrá eventualmente una respuesta a la posible futura cámara del iPhone. Noten sin embargo que por el momento estos cálculos que se ejecutan para crear una imagen compuesta de entre varias, requiere de muchísimo poder de procesamiento, tanto así que Light ya ha dicho que la primera generación de estas cámaras solo podrán capturar imágenes fijas y no videos en esta modalidad, hasta que la empresa cree procesadores dedicados para ensamblar tales imágenes en videos en tiempo real. Por su parte sin embargo es mucho más probable que la primera generación de dispositivos de Apple con esta tecnología permitan también grabar videos, debido a que Apple controla totalmente todo su ecosistema, diseñando la empresa sus propios procesadores, y es de esperarse que ya tenga internamente incluso prototipos de co-procesadores o circuitos listos para integrarse en futuras generaciones de sus chips A9 o A10. Y noten que si agregamos a esto el hecho de que Sony (que provee los sensores a Apple) tiene un nuevo diseño de sensor de 12 Megapixeles estilo RGBW (un término de cómo están organizados los fotosensores en el sensor) que promete una mejora notable en el nivel de luz capturada, y el hecho que dos o más de estos sensores en paralelo pueden incrementar su nivel de sensibilidad a la luz así como su resolución computacionalmente, que esto nos indica que estamos en el umbral de equipos fotográficos en celulares que no solo podrán tener una densidad efectiva de pixeles en el orden de la decenas de millones de pixeles, sino además que poseerán los mismos efectos de campo difuso y enfoque selectivo que disfrutan las cámaras DSLR, así como una alta sensibilidad a la luz (para ambientes de baja iluminación), y todo eso en un futuro muy cercano... Nota a puristas tecnológicos: Antes de que lo mencionen en los comentarios, Sí, ya se, otras empresas han experimentando con esto, incluyendo un par de fabricantes chinos y coreanos con sus cámaras en celulares Android, en donde permiten de forma limitada hacer fondos difusos. Sin embargo, esos no son más que "hacks" visuales, y no son tan sofisticados como las soluciones que plantean sacar al mercado estas dos empresas en donde pueden lograr una mucha mayor resolución, mucho menor ruido, y mucho mayor control de los planos difusos o enfocados de las fotos y videos. autor: josé elías |
22 comentarios
355,045 vistas |
Cámaras Digitales , Celulares / Móviles , Opinión / Análisis , Predicciones , Tecnología Visual |
viernes, marzo 6, 2015
|
A veces me asombra como empresas se ciegan ante tremendas oportunidades que para muchos fuera de sus oficinas son sencillamente obvias...
Tomemos el ejemplo de hoy: La empresa Lytro acaba de anunciar que despedirá a muchos empleados con miras a reenfocarse en otro mercado, el mercado de video (y a menor medida, también el mercado de la Realidad Virtual). Para los que desconocen a Lytro, esta es una empresa que inventó y mercadeó una cámara revolucionaria del mismo nombre, que tiene la asombrosa particularidad de poder enfocar la imagen después de uno haber capturado la foto. En otras palabras, simplemente apuntas tu cámara a lo que desees capturar, y posteriormente en tu casa u oficina tu puedes elegir (por medio de un software especializado en tu PC) cuáles elementos de la fotografía deben permanecer enfocados y cuáles no. Incluso la empresa ofrece un componente web que incrustas en páginas y redes sociales que permite que las audiencias de tus fotos jueguen después con la imagen enfocándola en varios puntos (vean algunos ejemplos aquí). Sin embargo, y como mencioné par de veces previamente, aunque eso está genial desde el punto de vista que se ve como algo "chévere", no iba a acabar con el mercado actual, debido a (entre otras razones) (1) su alto costo, (2) falta de un ecosistema de lentes y otros accesorios (es decir, el sector profesional), y (3) el hecho de que realmente aunque es algo chévere poder hacer esto en fotos, no es que sea una gran necesidad per-se para la mayoría de personas, particularmente en un mundo en donde celulares ofrecen ya fotos asombrosas con buen enfoque en la mayoría de casos. Y eso nos lleva al tema de hoy... Hace 4 años le sugerí a la empresa (en este artículo acá mismo en eliax, y por email a ellos) que el mercado de ellos no era la fotografía, sino más bien la cinematografía (es decir, el cine). ¿Por qué? Pues porque uno de los elementos más difíciles del cine (y para lo que usualmente se paga a un empleado aparte a tiempo completo, y se necesitan todo tipo de tecnologías para ayudar) es lo que se llama "focus pulling", o el acto de enfocar correctamente una imagen en movimiento. Para consumidores esto no aparenta ser gran cosa, ya que aparenta que la mayoría de cámaras de video enfoca apropiadamente, pero en cine, con sensores más grandes, y con resoluciones mayores, el tema se multiplica exponencialmente y es bastante difícil mantener una imagen enfocada, razón por la cual un buen focus-puller en Hollywood es altamente cotizado con su salario. Y estos focus-pullers justifican su salario ya que si una toma está fuera de enfoque casi perfecto, esa toma se descarta, arruinando la toma, perdiéndose oportunidades creativas, y extendiendo el tiempo y presupuesto de los proyectos. O en otras palabras, malos enfoques se traducen en pérdidas en dinero. ¿Pero qué tal (y esto es lo que no concibo en mi mente que le haya tomado 4 años para darse cuenta a la gente de Lytro), si las cámaras de cine estuviesen dotadas de un sistema de Lytro en donde no importa el enfoque en lo absoluto, sino que eso ya sea una labor en post-producción? Eso sería sencillamente fenomenal. Y no solo fenomenal en el sentido de que resuelva el tema de no tener que enfocar, sino que además abre nuevas oportunidades que antes no existían para uno poder tratar el tema de enfoque como un elemento más desde el punto de vista creativo en las producciones. De modo que por ejemplo se puedan elegir varios puntos de enfoque a la vez, o reducir o expandir el efecto de fondo difuso al antojo. Eso, es lo que Lytro debió hacer desde el inicio, y esperemos que lo que sea que estén planeando ahora, lo implementen bien... Yo personalmente no sacaría toda una cámara o sensor con esta tecnología, sino que licenciara la tecnología a los mayores fabricantes de sensores y cámaras del mercado, como son Alexa, RED, Sony, Canon, BlackMagic, y otros... autor: josé elías |
11 comentarios
359,428 vistas |
Cámaras Digitales , Cine / DVD / Blu-ray , Opinión / Análisis , Predicciones , Tecnología Visual |
sábado, enero 31, 2015
|
Nota ética: Como siempre ha sido el caso en toda la historia de eliax, mi siguiente opinión es totalmente independiente, y no tengo relación alguna directa o indirecta con Panasonic ni ninguno de sus afiliados, socios, o empresas que manejen sus marcas y/o productos. Esta cámara la compré con mi propio dinero después de una ardua investigación sobre lo que quería comprar para mi uso personal.
No es todos los días que escribo un review de algún producto en #eliax, pero esta vez me veo tan agradecido e impresionado con el producto, que sentí debía compartir mi experiencia con todos ustedes, por si le es útil a alguien... Se trata de la cámara Panasonic Lumix DMC-LX100, una cámara totalmente fuera de serie, que salió a finales del pasado 2014, y que ya ha ganado innumerables galardones incluyendo "cámara del año 2014" en varios lugares. Pero antes de continuar, una información de trasfondo para que entiendan como terminé con esta cámara en mi manos... Leer el resto de este artículo... autor: josé elías |
32 comentarios
276,662 vistas |
Cámaras Digitales , Cine / DVD / Blu-ray , Opinión / Análisis |
martes, diciembre 30, 2014
|
Este año he tomado un gran interés personal en cámaras digitales que sirvan tanto para fotos como para video (y por eso ahora tengo una excelente Canon 5D Mark III con varios lentes tipo prime y una Panasonic LX100 semi-portátil que de paso graba video UHD/4K), y diría yo que el 2014 ha sido uno de los mejores años en tiempos recientes para adquirir un cámara digital que sirva en ambos entornos, y para los curiosos o los que estén contemplando adquirir una, he aquí las que considero las mejores del año.
Ojo, esta no es una guía ni exhaustiva ni profundamente técnica sobre estas cámaras (para eso los refiero a portales como dpreview.com o eoshd.com), sino más bien un resumen de los puntos claves de estas cámaras, ya que por el momento una sola cámara no servirá para todo el mundo, y hay que elegir la que más se acerque a nuestros requerimientos (sean de versatilidad, expandabilidad, tamaño, capacidad de trabajar en ambientes oscuros, compatibilidad, etc). Noten además que existen muchas otras cámaras usualmente optimizadas para un solo fin (por ejemplo para fotografías tenemos la excelente Nikon 810, y para video las BlackMagic), pero vuelvo aclarar que me estoy concentrando en cámaras que son buenas en ambos entornos. Así que sin más que decir, estas son en mi opinión las mejores cámaras del año para fotos y videos... 1. Sony A7S Esta cámara de Sony tiene la particularidad de tener el mejor sensor del mundo optimizado para capturar ambientes de baja iluminación. Su sensor es tan bueno con poca luz que puede grabar perfectamente bien bajo solo la luz de la Luna, o incluso con una sola vela en una habitación. No existen cámaras (a ningún otro precio, incluso costando 10 a 50 veces más) con esta capacidad en el mercado masivo. La Sony A7S graba internamente en formato 1080p, pero externamente puede lanzar una señal de video UHD/4K también, para ser capturado por ejemplo con el excelente Atomos Shogun (unos US$2000 dólares). Noten además que el A7S tiene un sensor full-frame como las cámaras tradicionales SLR de 35mm. Cuesta unos US$2,500 dólares en Amazon, sin lentes. 1. Panasonic GH4 Esta es la mejor cámara para consumidores actualmente por parte de Panasonic, y es toda una bestia. Aun no tenga un sensor full-frame (1.5x crop), esta puede simular el look por medio del adaptador especializado Speed Booster (unos US$500 dólares aprox.), está diseñada ergonómicamente tanto para fotos como para video, y graba directa e internamente tanto a 1080p como a UHD/4K. Cuesta unos US$1,500 dólares en Amazon, sin lentes. 2. Samsung NX1 Esta fue una de las sorpresas del año, ya que Samsung no era considerado un gran jugador en este espacio, pero con la NX1 dejó a todos sorprendidos. Esta cámara no es full-frame, pero es la primera del mercado masivo que graba video UHD/4K en el formato H.265 (el sucesor de MPEG-4), produciendo archivos que son entre 10 y 100 (!!!) veces de menor tamaño que los de mpg4, lo que para muchos es de gran importancia ya que video 4K consume muchísimo espacio, y cuando vienes a ver tienes una inversión en discos duros mucho mayor que la cámara misma... Cuesta unos US$1,500 dólares en Amazon, sin lentes. 3. Sony RX10 Esta cámara fue otra sorpresa del año, ya que no solo es una "todo en una" viniendo con un super-excelente lente equivalente a 24-200mm con apertura F2.8 constante y estabilización óptica de imagen, sino además que graba video 1080p de excelente calidad, incluyendo de paso entrada y salida de micrófonos y audífonos (algo que usualmente no se obtiene al precio de esta cámara). Curiosamente el lente Zeiss que incluye la cámara integrado, si se vendiera solo en el mercado, fácilmente costaría sobre los US$10,000 dólares para cámaras de adquisición de noticias y monturas PL. Es así de bueno. Y no traten de ser "vivos" y comprar la cámara para sacarle el lente, este viene integrado en el cuerpo de la cámara y no se puede remover... Es bueno notar que si compran esta cámara que se aseguren de que esta esté actualizada al más reciente firmware (sistema operativo) de Sony para la RX10, que los dota de un mucho mejor CODEC (los algoritmos que comprimen y almacenan el video), y con capacidad de hacer cámara lenta a 120fps. Cuesta unos US$1,000 dólares en Amazon, e incluye un lente integrado (no removible). ¿Cuál elijo? Una vez más, esto depende de tus necesidades y presupuesto... Por ejemplo, si tienes un bajo presupuesto, y no vas a grabar en total oscuridad de noche, la RX10 es una muy buena opción, y las imágenes que obtendrás de su sensor y lente serán de calidad "pro" con buena iluminación. Si te interesa grabar en ambientes oscuros o con luz natural, la A7S actualmente no tiene absolutamente nada que se le acerque (ni siquiera las cámaras RED ni las Alexa). Si vas a grabar mucho video 4K que necesita ser almacenado todo en crudo, la NX1 vale la pena una vista. Y si deseas algo a un precio razonable, que grabe 4K internamente, y que te permita intercambiar lentes, la GH4 podría ser una buena opción. Noten además que estas cámaras también ofrecen algún grado de video en cámara lenta, por lo que vean las especificaciones de cada una para ver las limitaciones y capacidades si esa es otra prioridad que tienen. De ahora en adelante, los dejo ahora a la merced de Google y portales especializados para los detalles... autor: josé elías |
18 comentarios
306,279 vistas |
Cámaras Digitales , Cine / DVD / Blu-ray , Opinión / Análisis , Pregunta a eliax |
domingo, enero 5, 2014
|
Después de 9956 artículos en eliax (contando este), creo que ya saben bastante bien que soy un aficionado empedernido de todo lo concerniente a fotografía y cinematografía, y después de unos años jugando con todo tipo de cámaras (desde celulares hasta mi actual Canon 5D Mark III), he aprendido unas cuantas cosas, pero quizás una de las cosas que más he aprendido es a saber lo que deseo y no tengo en todas las cámaras que he utilizado. Y algo me dice, que cualquier aficionado (como yo) o "Pro", posiblemente desee varias de esas cosas que yo también deseo.
Así que hoy les comparto mi lista de las cosas que me gustaría tener en una futura generación de cámaras digitales del tipo "semi-pro" o "pro", y los invito a que en los comentarios añadan sus propios deseos. Y quien sabe, quizás alguien de Canon, Nikon, Sony, BlackMagic u otras empresas lea esto y las pase al departamento correspondiente dentro de sus instituciones. O quizás, uno de ustedes se anime en darle al mercado lo que estos no nos dan... Así que sin más que decir, he aquí mi lista de deseos... 1. Un mucho más amplio Rango Dinámico Rango Dinámico (o Dynamic Range en inglés), es un tema del cual me gustaría escribir todo un articulo en eliax pues es un tema muy interesante y útil conocer, pero por ahora digamos que es la capacidad de una cámara de resolver detalle entre las partes claras y oscuras de una imagen de forma simultánea. Hoy día incluso las mejores cámaras del mercado por lo general solo resuelven unas 9 a 11 stops de rango dinámico, pero sabemos que es posible obtener mucho más (como se nota en los archivos RAW/crudos de la última generación de cámaras digitales). Hoy día las cámaras más caras de RED pueden resolver hasta 18 stops de rango dinámico, y la nueva BlackMagic Pocket Cinema Camera provee de 13 stops, por lo que sabemos que es posible darnos al menos 15 stops con un poco de esfuerzo... Ah, y ya que estamos hablando de High Dynamic Range, ¿qué tal sensores que sean más sensibles a entornos de poca luz (como este)? 2. Botones configurables Una de las ventajas de interfaces táctiles como las de celulares inteligentes es que estos se pueden configurar por completo, pudiéndose dibujar botones en donde uno lo desee. Pero una de las desventajas de tales interfaces es que no ofrecen una manera de uno "sentir" los botones con los dedos. Ya existe tecnología en laboratorios (como esta o esta) para permitir que desde una pantalla surjan "botones" que uno pueda sentir, lo que sería ideal para uno configurar la cámara con el interfaz que uno desea y no el que el fabricante desea (como es posible por ejemplo hacerlo al uno bajar una aplicación de cámara para un iPhone o Android, en esencia reemplazando la aplicación original). Sin embargo, mientras tanto me conformaría con que nos dieran una manera de uno tener varios botones físicos (quizás en un módulo deslizable y reemplazable) en lugares estratégicos de la cámara que nos permitan asignar funciones que deseemos a tales botones y rueditas. Hoy día varias cámaras pro (como mi 5D Mark III) ofrecen cierto grado de configuración, pero con muchas restricciones. Por ejemplo, a mi me gusta magnificar la pantalla para enfocar, y eso en mi antiguas Canon T3i, Canon 60D o Canon 6D era mucho más fácil que en mi "superior" 5D Mark III, cosa que hubiese resuelto si pudiese configurar el 100% de los botones y controles a mi gusto (para los curiosos usuarios de la 5D Mark III: Reasigné el botón de SET a magnificar, y eso más o menos aminora y casi resuelve el problema). 3. Enfoque automático por seguimiento ocular Los sistema de autoenfoque de las cámaras SLR/DSLR son muy pobres en comparación con los de cámaras tipo rangefinder (un tipo de cámara totalmente diferente a la mayoría de cámaras actuales, y que no tengo tiempo de explicar en este artículo de hoy), pero imaginen esto: ¿No sería genial si la cámara pudiese observar nuestro ojo por el visor, notar hacia donde ponemos atención, y enfocar automáticamente en ese punto? ¿Suena a ciencia ficción? Pues les informo que justo eso es lo que hacía la Canon EOS 3, una cámara fabricada por Canon desde el 1998 al 2007, y cuyo ultra-avanzado sistema de enfoque ocular aparentaba que literalmente te leía la mente, pues literalmente enfocaba en donde tu ponías atención (consciente o inconscientemente). Sin embargo, curiosamente ese tremendo adelanto la empresa no lo trajo a sus cámaras digitales, y quizás lo tenga bajo la manga para dentro de un par de años hacernos cambiar a un nuevo modelo... 4. Pantallas desplegables en los modelos Pro En el mundo profesional, existen unos cuantos que opinan que la manera "real" de un "pro" enfocar, es viendo por el visor de la cámara, y que las pantallas LCD detrás son solo una distracción. Yo no comparto esa opinión, e incluso creo es bastante ingenua y nada "profesional". En mi opinión, uno debe tomar ventaja de las opciones y ventajas que nos ofrece la tecnología para permitirnos hacer un trabajo mejor, y el tema de enfocar por medio del LCD, es en mi opinión, uno de ellos... Enfocar "a puro ojo", particularmente con la última generación de cámaras full-frame con más de 20 megapixeles, y con lentes rápidos en aperturas de 2.8 o superiores, es un juego ya no tanto de experiencia, sino de mucha suerte, en donde en muchos casos aciertas, y en otros sencillamente obtienes imágenes que se ven aceptables en la pantalla de la cámara o impresas en pequeñas postales, pero que al ser inspeccionadas (particularmente en partes de la cara humana, como en los ojos) se desnudan como muy mal enfocadas. Y una manera de enfocar casi siempre perfectamente, es utilizando la pantalla LCD detrás en modo "en vivo", junto con la funcionalidad de uno poder hacer zoom a nivel de los pixeles, de modo que si estás enfocando a una persona, y presionas en la pantalla en vivo el botón de zoom, puedes magnificar en toda la pantalla solo el ojo de la persona, y enfocarlo con precisión milimétrica. Y cuando te acostumbras, puedes hacerlo super rápidamente. Sin embargo, esto irónicamente se hace más fácil en cámaras de menor precio (como las Rebel de Canon) que en las Pro, debido a que las cámaras de menor costo permiten que la pantalla se extienda y salga de la cámara, para uno colocarla en cualquier ángulo que uno lo necesite. Y a propósito, ese es uno de los puntos en donde opino que dí un paso hacia atrás al comprar las Canon 6D y 5D Mark III, por sobre mis anteriores Rebel. Así que espero que Canon obvie un poco las quejas de muchos Pro que van en contra de esto, y preste un poco más de atención al sentido común... Y ojo, que esto venga por defecto en todas las cámaras no significa que tengas que utilizarlo. Nadie te obligará a punto de pistola a enfocar de esa manera. Si quieres seguir de la forma tradicional de adivinar el enfoque por el visor, amén, pero por favor no creen una campaña ante los grandes fabricantes (como realmente la hay hoy día) para que no incluyan estas super-útiles funcionalidades en sus cámaras semi-pro y pro. 5. PNG-24 junto a RAW Virtualmente el 100% de todas las cámaras digitales producen imágenes en el formato JPG, pero los que muchos no saben es que sus cámaras pueden generar imágenes de calidad visiblemente muy superior si capturan las fotos en el formato RAW (que muchas cámaras semi-pro en adelante soportan, como las Rebel y la mayoría de Nikons, Sonys y otras marcas). Sin embargo, RAW (o "crudo", y que pueden considerar el equivalente a los "rollos negativos" del mundo digital) viene con la complejidad de que los archivos ocupan mucho más espacio (unas 4 a 8 veces más), y que para obtener lo mejor de ellos debes procesarlos en un programa que te permite abrir el archivo RAW y manipular sus parámetros. En un archivo RAW por ejemplo, si has tomado una foto en donde un cielo en la playa aparenta estar totalmente sobreexpuesto (de color totalmente blanco), es bastante posible que puedas recuperar no solo el color del cielo azulado, sino incluso nubes que ni siquiera sabías estaban ahí, y lo mismo puedes hacer con las partes oscuras de la imagen. Así que al menos para los que les importa obtener la mejor calidad posible, RAW debería venir por defecto en todas las cámaras. Así mismo, en vez de JPG, que introduce imperfecciones visuales en la imagen debido a compresión visual de datos, ¿por qué mejor no adoptar el formato PNG de 24 bits, que aunque produce archivos más grandes que JPG, no tienen compresión visual, y son mucho menores que los archivos RAW? Y noten que hoy día ya todos los sistemas operativos y programas de edición de imágenes soportan PNG, por lo que hay poca excusa para no soportarlo. Noten sin embargo que un archivo PNG no te va a permitir recuperar detalle de las partes claras u oscuras de la imagen, pero sí te permitirá tener imágenes más limpias y libres de imperfecciones como ocurre con las JPGs... 6. Video RAW Similar a RAW y PNG, ¿por qué no incluir la capacidad de generar video en formatos RAW, en vez de los tradicionales MPG y sus derivados? Hoy día por ejemplo, gracias al hack (no autorizado por Canon) Magic Lantern, es posible transformar varios modelos de cámaras digitales Canon en increíbles herramientas para crear cine con video RAW, ofreciendo las mismas ventajas de un rango dinámico mucho más amplio (de lo cual hablé en el punto anterior con respecto a recuperar detalle en las áreas claras y oscuras de la imagen), y sin imperfecciones de compresión, a cambio de archivos mucho más grandes y un flujo de trabajo un tanto más complejo. Noten además que ya existen CODECs (codificadores) de video RAW que pueden comprimir video RAW puro a un formato mucho más comprimido sin comprimir la información visual en lo absoluto (es decir, comprimen los datos, no la información visual que estos representan), como el CineForm que produce archivos 10 veces más pequeños que el RAW crudo de algo como la 5D Mark III, por lo que no hay excusa para no proveer esto (salvo quizás, que tendrán que crear circuitos especializados para comprimir a CineForm en tiempo real, lo que podría incrementar el costo de estas cámaras en unos US$10 a US$20 dólares por unidad, que honestamente, no es nada para el público a donde esto apuntaría). Pero una una vez, ofrezcan ambas opciones: Video comprimido al estilo MPEG, y video RAW para quienes entiendan lo que hacen y deseen la mejor calidad posible... 7. Menor peso ¿Por qué mi 5D Mark III pesa el doble que mi antigua 3Ti? Canon diría que por los materiales que utiliza, pero honestamente, BlackMagic ha demostrado que es posible crear cámaras increíbles en tamaños increíbles (y a precios increíbles). Justamente anteayer por ejemplo (en una boda de un familiar) me lastimé mi muñeca de tanto cargar con una mano la 5D Mark III junto a un lente bastante pesado. Y honestamente, hay otras maneras de hacer esto, y solo se necesita voluntad y liderazgo de parte de estas empresas para hacerlo... 8. Mejores lentes y más baratos ¿Sabían que ya existe investigación (de la cual les hablé en el 2012 acá mismo en eliax) sobre formas de crear lentes sin cristal, totalmente planos, del fino de una hoja de papel, y con una calidad posiblemente muy superior a los mejores lentes del mercado? Ah, y posiblemente a un costo de unos pocos dólares... Así que ¿qué tal un poco de innovación en este campo por favor? Hoy día un lente como el Canon 24-70 f2.8 II fácilmente te costará alrededor de US$2,000 dólares, mientras que un excelente prime de la misma Canon como el excelente 50mm f1.8 se consigue por unos US$150, y todo se reduce a lo complejo que es fabricar estos lentes, y a los altos márgenes que estas empresas quieren cobrarle al sector "Pro". Así que si uno de ustedes lectores quiere hacerse multi-millonario (y hablo de miles de millones de dólares), ya saben a qué campo y tecnología caerle atrás para hacer sus sueños realidad... 9. Mejores baterías Las cámaras digitales sufren del mismo síndrome que sufren los celulares y tabletas: Justo en el momento que más los necesitas, obtienes el aterrador icono pestañeando que muestra una batería de color rojo, señal de que pronto te quedarás sin energía... Así que vamos a ver si arreglamos ese tema, para evitar que personas como yo anden con literalmente 3 baterías adicionales junto con la cámara, por si acaso... 10. Tienda de aplicaciones Una de las mejores cosas que han ocurrido en años recientes en el mundo de las cámaras digitales es el hack Magic Lantern que ya mencioné anteriormente. Pero Magic Lantern no es solo para ofrerte video en formato RAW (aunque ese fue su fin inicial). Magic Lantern te transforma tu cámara a una super cámara, con capacidades que usualmente obtendrías en cámaras que cuestan varios miles de dólares, e incluso funcionalidades que no obtendrías a ningún precio en ninguna otra cámara. Y no solo para video, sino para fotos, incluyendo intervalómetros, asombrosas capacidades para fotografía HDR (Alto Rango Dinámico), mejora del sonido (permitiendo suprimir el Auto-Gain Control, mejoras en enfoque (con patrones zebra, peaking, etc) y mucho más. Así que me sorprende que Canon, en vez de apoyar este tipo de cosas, y formalizar la creación de este tipo de programas, simplemente esté callada al respecto... La empresa debería tomar prestada una página del libro de Apple, quien pocos meses después de salir una tienda de aplicaciones "piratas" para el original iPhone, la empresa sacó su propia tienda, y legalizó el concepto del "App Store", permitiendo una forma organizada, segura y sencilla para que todos pudieran desarrollar aplicaciones para sus celulares (y posteriormente tabletas y laptops), y de paso hacer mucho dinero en el proceso (Apple cobra un 30% de comisión por cada venta en sus tiendas). Así mismo, Canon y Nikon principalmente debería seguir esos pasos, y permitir acceso total a sus cámaras. Yo mismo por ejemplo personalmente pagaría fácilmente US$99 dólares por Magic Lantern, particularmente si este funcionara en la última versión del firmware (sistema operativo de bajo nivel) de la 5D Mark III (actualmente, debido a que es un hack que depende de un agujero de seguridad de Canon, este solo funciona para una versión vieja, que trae consigo un sinnúmero de problemas que no voy a describir aquí hoy). Así mismo eso permitiría incluso la creación de accesorios externos (como nuevos botones y rueditas) que mejorarían la funcionalidad de las cámaras en su manejo físico. Noten que Samsung ya experimentó con esto, con un par de cámaras basadas en Android, pero la inconsistencia de su implementación no ha permitido que ese modelo sea exitoso en su plataforma. Así que esa es mi lista. ¿Qué otras cosas querrían ustedes? ¿Mejores conectores al estilo Thunderbolt? ¿Monitoreo de sonido estándar? ¿Mejores entradas para micrófono y sonido profesional? ¿Enfoque a-posteriori al estilo Lytro? ¿"cámara lenta" con al menos 120fps? ¿¿¿Qué más se les ocurre??? autor: josé elías |
40 comentarios |
Cámaras Digitales , Cine / DVD / Blu-ray , Opinión / Análisis , Predicciones , Tecnología Visual |
martes, noviembre 12, 2013
|
La SD Association, la entidad que define y licencia la especificación de las tarjetas de memoria SD (que muy probablemente sea la que utiliza tu dispositivo móvil, en algunas de sus variantes como Micro-SD, SDHC, SDXC, etc), acaba de anunciar la especificación Ultra High Speed Class 3 (U3), con una velocidad de escritura de cuando menos 30MB (30 MegaBytes) por segundo, o el equivalente a 240 Megabits por segundo (240Mbps).
¿Y para qué necesitamos esa velocidad? Pues para la demanda que nos impone el video 4K, que requiere unas 4 veces más ancho de banda que video de alta definición 1080p, lo que será de gran utilidad para el cine independiente particularmente. Noten que hoy existen varias tarjetas de la variante SDHC y SDXC del tipo UHS-I y UHS-II que pueden lidiar con el flujo de datos necesario para video 4k, pero estas tarjetas son muy específicas al sector profesional, y por lo general muy caras. La idea de tarjetas que tengan la certificación U3, es que estas garantizarán cuando menos una velocidad de escritura de 240Mbps, lo que implicaría el final del fenómeno de los "drop frames" (cuando algunos cuadros del video no pueden ser grabados a la tarjeta, expresándose esto como "saltos" en el video). Noten que esto además beneficiará a laptops, celulares y tabletas que implementen el estándar, proveyéndoles de un acceso a datos muchísimo más rápido que tecnologías actuales. nota de prensa oficial (PDF) autor: josé elías |
2 comentarios |
Almacenamiento , Cámaras Digitales , Cine / DVD / Blu-ray |
sábado, noviembre 2, 2013
|
¿Alguna vez soñaron con capturar video con una calidad bastante similar a lo que ves en lo mejor del cine de Hollywood? Pues lo crean o no, si están dispuestos a hacer algunos sacrificios técnicos, hoy día ya es posible ensamblar un sistema por menos de US$3,000 que te permitirá captar imágenes que hace apenas 10 años atrás te hubiese costado cuando menos un cuarto de millón de dólares.
La fórmula mágica es la siguiente (al día de hoy, inicios de noviembre 2013): Cámara: Blackmagic Pocket Cinema Camera (BPCC), US$995 Adaptador de lente: Speed Booster, Nikon mount, US$429 Lente: Sigma 18-35mm F1.8, Nikon mount, US$799 Micrófono: Rode Videomic, US$149 Todo eso hace un total de US$2,372 dólares (más impuestos), lo que les deja todavía US$628 dólares para que cubran el tema de impuestos, envío, y se compren unas cuantas baterías adicionales, tarjetas de almacenamiento de video tipo SDXC, un simple juego de luces LED, y otros accesorios, para terminar con un equipo muy por debajo de los US$3,000 dólares. Pero, ¿qué tiene de particular este "kit", y por qué no uno basado en las populares cámaras fotográficas DSLR? Pues tiene que ver con un par de cosas muy importantes, la más importante siendo el concepto de Dynamic Range (o "Rango Dinámico")... Si alguna vez trataron de capturar video con una DSLR, en un lugar dentro de una habitación un poco oscura, pero en donde también se ve algo fuera de la habitación (digamos, un patio bien alumbrado con el Sol), notarán que al grabar te tienes que decir si capturar detalle en los lados oscuros (lo que conlleva a que los lados claros sean totalmente blancos y sin detalles), o capturar detalle de los lugares claros (con el resultado de que pierdes todo el detalle de los lugares oscuros y terminas con todo negro). Eso se debe a que por lo general, las cámaras DSLR tienen un Rango Dinámico muy limitado, en el sentido de que solo pueden capturar a la misma vez un rango limitado de distintos tipos de "brillantés" en la imagen. Es decir, un rango limitado de valores intermedios entre un extremo claro y otro oscuro. El resultado de eso, para empezar, es el típico video que uno "sabe" no fue grabado con equipo profesional, pues uno nota "algo" que rara vez puede decir qué es, pero por lo general es esto, pues al grabar con un Rango Dinámico limitado, eso conlleva a imágenes que son por lo general asociadas más a "cámaras de video" que a "cámaras de cine". Noten que con algunos hacks, particularmente en cámaras Canon, como el increíble Magic Lantern, es posible capturar video en modo RAW ("crudo") que ofrece un rango dinámico muy superior al video nativo que viene de fábrica, pero aun así, el costo de una cámara que ofrezca lo mejor de Magic Lantern en resolución nativa 1080p, y con el más alto rango dinámico posible, es muy superior a la BPCC. Hoy día por ejemplo lo que más se acerca con Magic Lantern a la calidad de la Blackmagic Pocket Cinema Camera es una Canon 5D Mark III, pero esa es una cámara que por sí sola (sin lentes) cuesta sobre los US$3,400 dólares. Y eso nos lleva al otro tema: Costo. El kit que les recomiendo está optimizado tanto para calidad del video como para costo, evidente en lo que mencioné en el párrafo anterior... La otra cosa es que esta cámara BPCC fue hecha exclusivamente para capturar video cinemático, capturando nativamente video RAW que puede ser editado directamente en populares programas de edición de video directamente, así como viene con una versión "light" del poderosísimo programa de colorizar películas de cine, DaVinci Resolve, que es otro de los trucos que diferencian a un video con un look casero, a otro con un look "cinemático". Y noten que la BPCC está optimizada para capturar video a 24fps (24 cuadros por segundo) que es el formato capturado en cámaras de cine. Es importante también entender que el video que sale "por defecto" de la BPCC a primera vista aparenta peor que el incluso algunas cámaras de video baratas de un par de cientos de dólares, pero eso es solo una apariencia. El video de la BPCC no está hecho para ser tomado tal cual sale de cámara, pues lo que obtienes es un video con un amplio rango dinámico (hablamos de 13-stops, para los expertos), que posteriormente debes procesar en DaVinci Resolve para "colorizar" el video y verdaderamente hacerlo relucir (y es en este punto en donde estarás con una sonrisa de oreja a oreja). Y se sorprenderán de lo que podrán hacer con el video RAW de la BPCC, ya que incluso video que aparentaba estar sobreexpuesto o subexpuesto, podrán corregir sin problemas en la mayoría de casos, permitiéndoles "sacar" detalles que a primera vista aparentaban no estar ahí. Por otro lado, es bueno notar que el sensor de la BPCC es bastante menor que el de una Canon 5D Mark III, por lo que uno pensaría que sería difícil, o incluso imposible, lograr efectos de campo difuso, en donde por ejemplo en una escena fuera posible enfocar en dos personas hablando mientras el fondo se pone difuso y fuera de foco, pero es ahí en donde entra el Speed Booster de Metabones, un accesorio que permite adaptar lentes de mayor tamaño a sensores más pequeños, pero permitiendo utilizar toda la superficie del lente, en vez de solo la parte central del lente, en esencia trayendo la mayor parte de los beneficios de un sensor de gran tamaño (incluyendo fondos difuros), a sensores como el de la BPCC. Y noten que de paso, debido a que el Speed Booster concentra más luz en un lugar más reducido, que este por defecto incrementa la apertura efectiva del lente en cuestión por al menos 1 f-stop, significando eso que un lente f1.8 en realidad se convierte en uno f1.4, lo que es genial e increíble. Es importante notar que el Speed Booster por el momento (a la fecha de escribir este artículo) solo tiene adaptadores desde la montura Nikon hasta la MFT (Micro Four-Thirds) que utiliza la BPCC, razón por la cual están atados a lentes con montura Nikon, pero en el momento que Metabones saque una versión Canon, la idea es la misma: Utilizar un Speed Booster en montura Canon con el mismo lente Sigma mencionado en su versión Canon. Por último, la última pieza del rompecabezas es el lente Sigma 18-35mm F1.8, el cual por el precio ha demostrado ser toda una joya para el cine digital, ofreciendo una imagen bien clara y nítida, y con un útil rango de zoom. En cuanto al micrófono Rode, lo agregué simplemente para completar todo el tema de audio-video, pero existen otras opciones. Y si quieren ver un ejemplo de video grabado con exactamente este kit (menos el micrófono), no dejen de visitar el enlace a continuación... artículo sobre este kit con video de muestra página oficial de la BPCC (no dejen de ver la sección, a mediados de la página, que dice "Wide Dynamic Range") Actualización del 12 de Noviembre del 2013: La BlackMagic Pocket Cinema Camera desde hoy permite grabar en 12bit Cinema DNG 1080p RAW. Por US$999 nada mal (fuente). autor: josé elías |
22 comentarios |
Cámaras Digitales , Cine / DVD / Blu-ray , Opinión / Análisis , Pregunta a eliax , Tecnología Visual , Videos |
jueves, agosto 15, 2013
|
Hoy los dejo con un enlace a los ganadores del concurso iPhone Photography Awards 2013, que como el nombre indica, son fotografías tomadas exclusivamente con iPhones, y como verán, algunas de esas fotos son verdaderamente sorprendentes y no aparentan haber sido tomadas con un celular.
Nota: Noten que cuando entren verán solo unas cuantas fotos; deben hacer clic en las secciones/categorías arriba para ver las otras fotos ganadoras. enlace a los ganadores autor: josé elías |
8 comentarios |
Apple / OS X , Arte , Cámaras Digitales , Celulares / Móviles , Curiosidades |
martes, julio 23, 2013
|
Disney acaba de refinar una técnica (de la cual ya les había hablado en el 2006 acá mismo en eliax) que permite tomar como entrada de datos una serie de fotos de alta resolución del mismo objeto, y produce una imagen 3D de alta calidad de forma automática.
Como podrán imaginar, esto tiene mucha utilidad en varios campos, que van dede arquitectura (por ejemplo, para crear automáticamente una maqueta basado en un proyecto real), hasta cine (para capturar en 3D a objetos sin tener que escanearlos en 3D con hardware especializado), así como en video-juegos, instalaciones de arte, etc... Sin embargo, en vez de explicarles el concepto, simplemente sorpréndanse con el video que les dejo acá abajo. fuente oficial Video a continuación (enlace YouTube)... autor: josé elías |
13 comentarios |
Cámaras Digitales , Curiosidades , Tecnología Visual , Videos |
"Al menos, en mi experiencia consciente de uso de Internet, en mi horizonte de eventos no perderé de vista esta pagina y este tipo de artículos, gracias por todo tipo de información que conmociona mi curiosidad cada vez que busco asombro.
saludos"
saludos"
en camino a la singularidad...
©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax