¡Buenas!
Me gustaría compartir con vosotros un problema de tratamiento de imágenes, para coger ideas sobre cómo lo afrontaríais en mi lugar.
Os describo el problema:
Tenemos 4 cámaras en una matriz de 2x2, separadas entre ellas una distancia conocida (algunos centímetros). Esta matriz de cámaras se diseña para realizar fotos desde una distancia grande, por ejemplo, sobre un dron.
Al haber una distancia grande con el objeto de la foto, las 4 fotos resultantes son prácticamente iguales. Sin embargo, si queremos hacer una foto de proximidad, con poca distancia entre las cámaras y el objeto, existen diferencias entre las 4 fotos. Resulta más evidente que se han tomado desde 4 posiciones distintas.
Mi objetivo es superponer las 4 fotos en la región que sea común cuando se hagan con un objeto cercano. El tema es que esto requiere una transformación de la imagen, y detectar un offset entre las distintas fotos.Sí que sabremos a priori la distancia aproximada entre las cámaras y el objeto.
Para conseguir hacer esto, lo que tenía pensado es utilizar opencv para identificar puntos clave en las 4 fotos, y luego realizar transformaciones para obtener 4 imágenes con perspectiva corregida. Tras eso, intentar superponer los puntos y eliminar el offset de las zonas no comunes entre todas las fotos. El principal problema que le veo a esta solución es que los objetos quizá no tengan puntos clave muy reconocibles y exista cierta tasa de error.
¿Qué estrategia utilizaríais vosotros para resolver este problema?