Detectar los bordes de los objetos es uno de los problemas principales de la visión por computadora. Es algo que los humanos hacemos con facilidad: con un breve vistazo a la calle, distinguimos perfectamente entre automóviles y peatones, o entre luminarias y las fachadas de los edificios detrás de ellas. Sin embargo, está resultando extraordinariamente difícil dotar de esa habilidad a las computadoras.
Uno de los mejores modos en que una computadora puede determinar los bordes es hacer muchas conjeturas y luego comprobarlas. Los bordes que concuerden con la mayoría de las conjeturas tienen más posibilidades de haber sido obtenidos con precisión. Hasta ahora, ese proceso se ha caracterizado por consumir muchísimo tiempo.
Pero Jason Chang, del Departamento de Ingeniería Electrónica y Ciencia de la Computación, y John Fisher, del Laboratorio de Inteligencia Artificial y Ciencia de la Computación del MIT, han descubierto cómo hacer que sea al menos 50.000 veces más eficiente. Sus resultados podrían ayudar a mejorar los sistemas de obtención de imágenes médicas, de seguimiento de objetos en movimiento y de reconocimiento de objetos en 3D, entre otros.
Una de las razones por las que la detección de bordes (o segmentación de imágenes, como también se la conoce) resulta un problema tan difícil es que no hay una única respuesta correcta. Pida a 10 personas que dibujen los bordes de los objetos en una imagen digital, y lo más probable es que le den 10 dibujos diferentes. "Queremos un algoritmo que sea capaz de segmentar imágenes como lo hacemos los humanos", explica Chang. "Pero como los humanos segmentamos las imágenes de manera desigual, no debemos trabajar con una sola segmentación". Según Chang, debemos trabajar con bastantes segmentaciones diferentes, que representen la variabilidad humana en esa tarea.
Y eso es lo que han intentado hacer Chang y Fisher con su algoritmo. Como en otros casos, imitar a la naturaleza es un buen punto de partida para hacer diseños.
No hay comentarios:
Publicar un comentario