Bajo la presión de hacer que sus sitios sean accesibles a los usuarios con discapacidad visual, las empresas recurren al software. Pero los defensores dicen que la tecnología no siempre está a la altura.
EL año pasado, Antony Murphy, un hombre con discapacidad visual que vive en Erie, Pensilvania, visitó el sitio web del minorista de gafas Eyebobs utilizando un software lector de pantalla su voz sintetizada intentó leer el contenido de la página, así como los botones de navegación y los menús. Eyebobs utilizó un software de inteligencia artificial de la startup israelí AccessiBe que prometió facilitar el uso de su sitio a las personas con discapacidades. Pero Murphy descubrió que lo hacía más difícil.
AccessiBe dice que puede simplificar el trabajo de hacer que los sitios web sean accesibles para personas con problemas de visión u otros desafíos al "reemplazar un proceso manual costoso con una tecnología de IA automatizada y de vanguardia". En una demanda presentada contra Eyebobs en enero, Murphy alegó que el minorista no proporcionó a las personas que usan lectores de pantalla acceso igual a sus servicios y que la tecnología de AccessiBe, que no es parte de la demanda, no funciona como se anuncia.
En octubre, Eyebobs aceptó un acuerdo en el que negó las acusaciones de Murphy, pero acordó contratar a un consultor de accesibilidad para ayudar a revisar su sitio web y aplicaciones móviles y dedicar personal al problema. Al igual que muchas nuevas empresas de inteligencia artificial, AccessiBe comercializa su tecnología como más barata que los humanos que pagan. Eyebobs ahora debe pagarle a la gente de todos modos, por orden judicial.
La demanda contra Eyebobs se encuentra entre un número creciente en los últimos años que acusa a las empresas de violar los estándares de accesibilidad web. Las ofertas para arreglar sitios web con tecnología de inteligencia artificial también han crecido, junto con las quejas de algunos defensores de la accesibilidad de que no funciona como se anuncia. El caso también proporciona un raro ejemplo de una empresa que enfrenta consecuencias legales por apostar por la tecnología de inteligencia artificial que no funcionó como se esperaba. Es probable que la lista crezca. Los avances en el aprendizaje automático han convencido a las empresas para que confíen más en los algoritmos, pero la tecnología a veces no está a la altura .
El aprendizaje automático sobresale en problemas estrictamente definidos en condiciones constantes e invariables. Los desafíos más interesantes e importantes del mundo a menudo involucran entornos impredecibles donde los juicios humanos pueden superar con creces los de las máquinas.
Facebook ha dicho durante años que los algoritmos lucharán contra el contenido desagradable en sus plataformas, pero la creciente evidencia, incluso de documentos internos , sugiere que el problema está lejos de estar contenido. Dar sentido a las sutilezas del lenguaje, que pueden ser muy específicas del contexto, es uno de los desafíos más difíciles en el campo . En agosto, la Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. Abrió una investigación sobre una serie de choques en los que vehículos de Tesla que usaban el sistema de conducción automatizado de la compañía, comercializado de manera grandilocuente , golpearon vehículos de emergencia estacionados .
La visión artificial ha mejorado y los algoritmos no se adormecen, pero las personas aún son mejores para dar sentido a situaciones físicas complejas. La accesibilidad en línea ocupa menos titulares que los automóviles autónomos, pero los tecnólogos también están aplicando la IA allí. Al mismo tiempo, la ola de demandas en torno a la accesibilidad está impulsando a las empresas a recurrir a proveedores de tecnología como AccessiBe.
La Ley de Estadounidenses con Discapacidades, que prohíbe la discriminación en actividades cotidianas como ir de compras o trabajar, no menciona la web. Fue promulgada en 1990, el mismo año en que se publicó la primera página web dentro del CERN. Pero los tribunales recientemente han abierto la puerta a demandas civiles argumentando que los sitios web son efectivamente "lugares de alojamiento público", y los casos se han disparado. UsableNet, que fabrica herramientas de accesibilidad, estima que en 2020 se presentaron 3.550 casos de este tipo en los EE. UU., Más del 50 por ciento desde 2018. Murphy ha presentado varias otras demandas similares a la contra Eyebobs.
"Existe un potencial sin explotar para que la inteligencia artificial ayude a impulsar y ampliar la forma en que se realiza la accesibilidad en la tecnología digital, pero debe hacerse con cuidado y prudencia".
JUDY BREWER, DIRECTORA, INICIATIVA DE ACCESIBILIDAD DEL W3C
En 2019, la Corte Suprema de los EE. UU. Se negó a escuchar una apelación de Domino's Pizza de un fallo de un tribunal inferior de que su sitio web y su aplicación deben cumplir con las pautas de accesibilidad del World Wide Web Consortium, que desarrolla estándares web. Ese y otros casos han otorgado a las directrices del W3C una autoridad que se acerca a la de la ley.
Esas pautas extensas especifican las mejores prácticas para acomodar digitalmente a personas con discapacidades visuales u otras necesidades. Con más de 100 páginas impresas, los preceptos incluyen proporcionar texto alternativo para imágenes y videos; uso claro de contraste y color; y asegurarse de que las funciones como formularios y menús sean navegables usando solo un teclado, sin usar un mouse o un dedo.
Automatizar el trabajo de cumplir con esas pautas podría hacer que la web sea más acogedora. Pero más de 600 expertos en accesibilidad han puesto sus nombres en un documento que pide a los operadores de sitios web que no utilicen tales herramientas de automatización, incluido AccessiBe. Los firmantes incluyen colaboradores de las pautas del W3C y empleados de Microsoft, Apple y Google. "La detección y reparación automatizadas de problemas de accesibilidad no es lo suficientemente confiable para hacer que un sitio cumpla con las normas", dice el documento, que acusa a algunos proveedores de "marketing engañoso".
El sitio fue iniciado por Karl Groves, fundador de la consultora de accesibilidad Tenon.io, quien proporcionó un análisis fulminante de 35 páginas del software de AccessiBe para la demanda de Murphy contra Eyebobs. Groves dijo que encuestó un total de aproximadamente 1,000 páginas de 50 sitios web utilizando la tecnología de la startup y encontró una mediana de 2,300 violaciones de las pautas del W3C para cada sitio. Groves dice que es un recuento muy bajo, porque la mayoría de las pautas solo pueden ser verificadas por un análisis manual experto. “La inteligencia artificial todavía no funciona así”, dice.
En su informe sobre AccessiBe, Groves citó una imagen de una modelo con un vestido blanco a la venta en un sitio de comercio electrónico. El texto alternativo proporcionado, aparentemente generado por la tecnología de AccessiBe, fue "Naturaleza de hierba y verano". En otros casos, informó, AccessiBe no pudo agregar correctamente etiquetas a formularios y botones.
En la página de inicio de su sitio web, AccessiBe promete "accesibilidad web automatizada". Pero los documentos de soporte advierten a los clientes que su tecnología de aprendizaje automático puede no interpretar con precisión las características de la página web si "no ha encontrado estos elementos lo suficiente antes".
El gerente de relaciones con la comunidad de AccessiBe, Joshua Basile, dice que desde que se unió a la compañía a principios de este año, se ha involucrado más con grupos de defensa de la discapacidad y aclaró que ofrece "remediación manual" junto con arreglos automáticos. “Es una tecnología en evolución y estamos mejorando cada vez más”, dice.
En un comunicado, el jefe de marketing de AccessiBe, Gil Magen, dijo que la compañía había analizado el sitio web de Eyebobs y encontró que cumplía con los estándares de accesibilidad. AccessiBe ofrece a los clientes asistencia con los litigios, pero Eyebobs se negó, según el comunicado. En su propia declaración, Eyebobs dijo que AccessiBe no respondió a las solicitudes de reuniones con sus abogados y proporcionó respuestas en forma "asegurándonos de nuestro cumplimiento web". Eyebobs ya no trabaja con AccessiBe ni lo haremos en el futuro ".
Aunque el acuerdo de Eyebobs, que se finalizará el próximo año, no incluye una admisión de que su sitio tuvo problemas, requiere que la empresa pague por una auditoría de un experto externo y que dedique uno o más empleados al trabajo de accesibilidad. “Eyebobs está comprometido con el cumplimiento de la ADA y apoyando a todos los visitantes que visitan nuestro sitio web”, dice la directora de marketing Megan McMoInau.
Haben Girma, abogada de derechos de las personas con discapacidad sordociega, dice que espera que la demanda de Eyebobs disuada a las empresas de utilizar AccessiBe o herramientas similares. Ella cree que las empresas de tecnología o los reguladores como la Comisión Federal de Comercio de EE. UU. Deberían tomar medidas contra el marketing inexacto de las herramientas de accesibilidad. "Los gobiernos, Google y las empresas de redes sociales pueden detener la difusión de información errónea", dice. Los expertos que critican las herramientas de accesibilidad automatizadas no suelen argumentar que la tecnología es totalmente inútil. Más bien dicen que depositar demasiada confianza en el software corre el riesgo de causar daños.
Un documento de 2018 de los empleados del W3C elogió el potencial del uso de la inteligencia artificial para ayudar a las personas con problemas de visión u otras necesidades, pero también advirtió sobre sus limitaciones. Apuntó a un proyecto de Facebook que utiliza el aprendizaje automático para generar descripciones de texto para las imágenes publicadas por los usuarios como ejemplo. El sistema ganó un premio de la Fundación Estadounidense para Ciegos en 2017. Pero sus descripciones pueden ser difíciles de interpretar. Sassy Outwater-Wright, directora de la Asociación de Massachusetts para Ciegos y Discapacitados Visuales, notó que el sistema a veces mostraba una preocupación por las partes del cuerpo: "dos personas de pie, con barba, pies, al aire libre, agua", que ella denominó el "dilema de la barba . "
En breves pruebas realizadas por WIRED, los algoritmos de Facebook parecían menos obsesionados con la barba, pero a menudo eran cautelosos hasta el punto de la vaguedad, diciendo que un primer plano de bagels recién hechos "puede ser una imagen de comida" y una playa en un día despejado "puede ser una imagen del aire libre ". Facebook dijo en enero que había mejorado significativamente el sistema, incluso reconociendo más actividades, animales y puntos de referencia. La empresa no hizo comentarios.
Judy Brewer, coautora del artículo de 2018 y directora de la iniciativa de accesibilidad del W3C, dice que la IA ha avanzado desde entonces, pero sigue siendo cautelosa con las herramientas. "Existe un potencial sin explotar para que la IA ayude a impulsar y ampliar la forma en que se realiza la accesibilidad en la tecnología digital", dice, "pero debe hacerse con cuidado y prudencia".
[Fuente]: wired.com
Lacey, E.( 11 de Noviembre de 2021).Imagenes falsas. [Fotografía]. Modificado por Carlos Zambrado Recuperado de wired.com