Hoy Microsoft anunció una nueva tecnología para obtener subtítulos de imágenes a través de Azure Cognitive Services y asegura que este sistema ahora puede describir imágenes tan bien como lo hacen los humanos.
Además Microsoft afirma que también este sistema es dos veces mejor que el modelo de subtítulos de imágenes que se ha utilizado en los productos y servicios de Microsoft desde 2015.
Un sistema de subtítulos automáticos de imágenes puede ayudar a los usuarios a acceder al contenido importante en cualquier imagen, desde una foto devuelta como resultado de búsqueda hasta una imagen incluida en una presentación.
El nuevo sistema de subtítulos ya está disponible para los clientes a través de la oferta Computer Vision de Azure Cognitive Services, que forma parte de Azure AI, lo que permite a los desarrolladores utilizar esta capacidad para mejorar la accesibilidad en sus propios servicios.
También se está incorporando a Seeing AI y comenzará a implementarse a finales de este año en Microsoft Word y Outlook, para Windows y Mac, y PowerPoint para Windows, Mac y web.
Si bien este sistema es un avance en la investigación en este campo y puede mejorar lo conocido hasta ahora , de acuerdo a los investigadores de Microsoft no significa que el sistema arrojará resultados perfectos el 100% de las veces que se lo use.
Saqib Shaikh, gerente de ingeniería de software del grupo de plataformas de inteligencia artificial de Microsoft en Redmond, afirma que los subtítulos en imágenes que permiten generar una descripción de la foto (texto alternativo) en un documento o página web, es muy importante para personas con problemas de visión.
Shaikh también señaló que lo ideal sería que todas personas agreguen texto alternativo a las imágenes, pero lamentablemente no todos lo hacen.