El MIT dice que una computadora que observó durante mucho tiempo videos de YouTube y programas de televisión como «The Office», «Big Bang Theory» y «Desperate Housewives» aprendió cómo predecir si los actores estaban a punto de abrazarse, besarse o saludarse de manos, avances que podrían ayudar a que la siguiente generación de inteligencia artificial funcione menos torpemente.
«Podría ayudar a un robot a moverse más fluidamente por una vivienda», dijo el investigador líder Carl Vondrick a The Associated Press en una entrevista «El robot no va a comenzar a verter leche si piensa que uno está a punto de retirar el vaso».
Vondrick ve además potenciales aplicaciones en atención médica. «Si se puede predecir que alguien está a punto de caer o de iniciar un incendio o de herirse a sí mismo, podría proporcionar una ventaja de unos segundos para intervenir».
Los hallazgos —tras dos años de investigación en el Laboratorio de Informática e Inteligencia Artificial del MIT— serán presentados la próxima semana en la Conferencia Internacional sobre Visión Artificial y Reconocimiento de Modelos, en Las Vegas.
Vondrick, un candidato a doctorado enfocado en visión artificial y aprendizaje de máquinas, y quien tiene subvenciones de Google y de la Fundación Nacional para la Ciencia, trabajó con el profesor del MIT Antonio Torralba y con Hamed Pirsiavash, quien ahora está en la Universidad de Maryland. El trío quería ver si podía crear un algoritmo que pudiera imitar la intuición de un ser humano y prever qué sucederá después que dos personas se encuentran.
Los investigadores descargaron los videos y los convirtieron en representaciones visuales, una especie de interpretación numérica de pixeles sobre una pantalla que el algoritmo pudiera leer y buscar modelos complejos.
Luego mostraron a la computadora fragmentos de programas de comedia de televisión que nunca había visto —interacciones entre los protagonistas de la serie «Big Bang Theory» Jim Parsons (Sheldon Cooper) y Kaley Cuoco (Penny), por ejemplo— y pedían al algoritmo que predijera un segundo después si los dos se iban a abrazar, besar, saludar de mano o golpear las palmas de sus manos con el brazo levantado.
La computadora acertó más de 43% de las veces. La cifra podría no sonar alta, pero es mejor que algoritmos existentes con una tasa de éxito de 36%. Los humanos aciertan un 71% de las veces.
Fuente: Frontera.info
Desde su inicio el 5 de febrero de 2025, la Operación Frontera Norte ha permitido…
El expresidente de Estados Unidos, Donald Trump, anunció que impondrá un arancel del 25% a…
El rancho Izaguirre, ubicado en Teuchitlán, Jalisco, fue identificado como un centro de entrenamiento del…
José Buendía Hegewisch El mayor “talón de Aquiles” de Teuchitlán para la Presidencia…
La inflación en México se desaceleró en la primera quincena de marzo de 2025, ubicándose…
El primer ministro canadiense, Mark Carney, solicitó a la gobernadora general del país y que ejerce las…