miércoles, noviembre 25, 2009
|
![]() La idea es probar y mejorar, con el fin de eventualmente hacer esto público a todos los usuarios de YouTube. Obviamente existirán errores de decodificación al inicio, pero si ponderan un poco sobre esto, notarán que al menos para sordos esto sería una tremenda ayuda para que tales personas tengan una idea de lo que se dice en tales videos. Otro uso que veo para esto es el de poder traducir en tiempo real lo que las personas dicen, e incluso en un futuro utilizar un sintetizador de voz para literalmente pronunciar las palabras en otro idioma... Otra funcionalidad con la cual Google experimenta es algo llamado "auto-timing", que es una versión mas simplificada de todo esto, en donde uno le provee a YouTube un archivo con todas las palabras habladas, y YouTube automáticamente detecta cuándo en el video cada palabra es pronunciada para así poner los subtítulos en el lugar en el tiempo en donde deber salir. Esto sin duda estimulará la creación de subtítulos en videos, ya que una de las tareas mas tediosas de crear tales subtítulos es precisamente el tener que utilizar un programa para marcar cuándo cada palabra o frase se pronuncia en el video. Fuente de la noticia autor: josé elías |
![]() |
![]() |
Comentarios
Añadir Comentario |
"Me encanta leer estas Reflexiones. Luego de leerlas cierro los ojos y por un momento me transporto al futuro :D quiero unooooooo!"
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax
Los de google nunca se duermen :)