Desde el gobierno hasta el sector privado, la automatización con inteligencia artificial (IA) y aprendizaje automático (ML) va en aumento.
Tomemos, por ejemplo, una herramienta de reconocimiento óptico de caracteres (OCR) como Abbyy Fine Reader, que extrae información útil de documentos y la almacena en un sistema, ahorrando tiempo y aumentando la eficiencia y la productividad. Es fácil ver cómo OCR podría integrarse en una amplia gama de empresas y organizaciones, y es solo una gota en el océano en lo referente a productos y servicios innovadores de AI/ML, que están cambiando el mundo.
Sin embargo, la implementación de AI/ML presenta desafíos. Pueden surgir nuevos peligros que no puedan predecirse, evaluarse o gestionarse de forma fiable, ya que ni los riesgos en sí mismos ni las estrategias para reducirlos se conocen por completo.
IBM desarrolló el sistema de inteligencia artificial Watson for Oncology para diagnosticar el cáncer; sin embargo, se informó que Watson había recomendado tratamientos contra el cáncer “inseguros e incorrectos”. No hace falta decir que esto es algo que habría causado mucho daño si se hubiera utilizado en pacientes reales. Sin duda, hay mucho en juego cuando se trata de IA.
La ética y los estándares garantizarán que se siga el proceso correcto en cada etapa de los procesos de desarrollo e implementación de AI/ML, incluidos los sistemas de recopilación, procesamiento y entrenamiento de datos, lo que producirá resultados de AI/ML mejores y más seguros.
En este análisis, abordaré las relaciones entre las personas, la tecnología, los datos y los procesos para garantizar la integridad y coherencia en los procesos de toma de decisiones que incorporan IA, ML y automatización en general.
Por qué necesitamos un marco ético de IA
La IA crea máquinas que pueden realizar tareas que antes requerían inteligencia humana. Estos sistemas suelen utilizar volúmenes masivos de datos de diversas formas. Los datos inadecuados, sesgados o incorrectos pueden dar lugar a programas mal concebidos que deriven en consecuencias o resultados no deseados.
La velocidad a la que se desarrollan los sistemas algorítmicos está aumentando hasta el punto en que es posible que no siempre podamos descubrir cómo la IA llegó a una conclusión específica. Mencioné anteriormente que Watson recomendó un tratamiento incorrecto a un paciente de cáncer, pero nadie sabe cómo llegó el algoritmo a hacer tales recomendaciones. Por lo tanto, al tomar decisiones que pueden tener un impacto significativo en la sociedad, estamos efectivamente confiando en sistemas que no entendemos por completo.
¿Qué empresas son los proveedores más importantes de IA e hiperautomatización? Haga clic aquí para ver el Top 10 en IA/hiperautomatización de Acceleration Economy, seleccionada por nuestro experto equipo de analistas profesionales.
Ahí es donde los marcos éticos de la IA deben entrar en escena. Gran parte del debate en los últimos años se ha centrado en la necesidad de desarrollar marcos y metodologías que aseguren que la IA desplegada y los sistemas automatizados no estén sesgados. Se ha convertido en una práctica común para las organizaciones formar grupos de expertos ad hoc sobre IA, encargados de redactar políticas y estándares. Aparentemente, estos comités han estado o están trabajando en informes y recomendaciones sobre IA.
Los principales proveedores de tecnología, incluidos Microsoft, Google y SAP, han emitido documentos de mejores prácticas de IA en los últimos años y continúan actualizándolos para diferentes aplicaciones de IA. Los esfuerzos de las partes interesadas para emitir principios y políticas de IA muestran no solo la necesidad de una orientación ética, sino también su considerable interés en dar forma a la “ética de la IA”, de manera que se alinee con sus objetivos.
Iniciativa de Dubái Digital: una autoevaluación de la IA
Muchas organizaciones han creado marcos que deben seguirse al crear una aplicación de IA. Siempre hemos visto estos marcos y políticas en forma de libros blancos o revistas publicadas; sin embargo, la iniciativa Digital Dubai del gobierno de Dubai ha hecho que este proceso sea más intuitivo y visual.
Para ayudar a las empresas desarrolladoras de IA y las operadoras de IA a evaluar qué tan éticos son sus propios sistemas de IA, Dubái ha desarrollado una herramienta de autoevaluación basada en sus propias Pautas de ética de IA. Esta herramienta también ayuda a identificar pautas para los sistemas de IA y brinda ideas sobre qué tipo de medidas de mitigación podrían introducirse. Esta herramienta de autoevaluación sigue cuatro pautas:
- Hacer que los sistemas de IA sean justos
- Hacer que los sistemas de IA rindan cuentas
- Hacer que los sistemas de IA sean transparentes
- Hacer que los sistemas de IA sean lo más explicables posible
El equipo de Digital Dubai recomienda usar esta herramienta para evaluar los sistemas de IA antes de que comience la implementación, y uno puede tomar decisiones sobre cómo proceder en función de la evaluación. Usar esta herramienta es simple, ya que solo necesita responder algunas preguntas sobre su aplicación de IA, como usos prácticos y métodos de mitigación. La herramienta está disponible en versión beta aquí y es de uso gratuito para cualquier organización o individuo.
Pensamientos finales
No se puede negar que poner teorías en acción no es tarea fácil. El uso ético de la IA es fundamental para fomentar la comprensión y servir como catalizador para establecer la amabilidad y una cultura de responsabilidad entre los desarrolladores de IA. Digital Dubai es un ejemplo perfecto de poner la teoría en un conjunto de herramientas prácticas.
Un enfoque como este permitirá que se desarrollen más aplicaciones de IA con una base ética y ciertos estándares generales. Personalmente, recomiendo tales herramientas de evaluación para que actúen como verificación preliminar de cualquier aplicación de IA antes de que llegue a la etapa de implementación. Esto no solo creará transparencia, sino que también hará que las aplicaciones de IA sean más confiables y fiables.
Autor: Ronak Mathur
Artículo original aquí