La inteligencia artificial (IA) puede impulsar la innovación y la eficiencia de prácticamente cualquier empresa, pero también tiene el potencial de causar daños. Esto significa que quienes la utilicen deben comprender los marcos éticos establecidos para garantizar la seguridad de todos.
Al fin y al cabo, la IA es una herramienta. La ética de la IA puede considerarse como la advertencia de seguridad que aparece en letras grandes al principio de cualquier manual de usuario y que establece lo que se debe y lo que no se debe hacer al usarla.
Utilizar la IA casi siempre implica tomar decisiones éticas. En un entorno empresarial, comprender las múltiples formas en que puede afectar a las personas y a la cultura significa que disponemos de la mejor información para tomar esas decisiones.
Es un tema en el que sigue habiendo mucha confusión, sobre todo en lo que se refiere a quién es responsable y quién debería asegurarse de que se hace. He aquí cinco ideas erróneas sobre la ética de la IA generativa y el aprendizaje automático.
1/ La IA no es neutral
Es fácil pensar que las máquinas son totalmente calculadoras, imparciales y sin emociones a la hora de tomar decisiones. Por desgracia, es muy probable que no sea así. El aprendizaje automático es siempre un producto de los datos con los que se entrena y, en muchos casos, eso significa datos creados por humanos. Es muy posible que contengan muchos prejuicios humanos, conjeturas y opiniones sin formación, y de ahí surge el problema de la parcialidad de la IA. Entender cómo el sesgo pasa de los humanos a las máquinas es clave para construir herramientas y algoritmos que reduzcan la posibilidad de causar daño o empeorar las desigualdades sociales.
2/ La ética de la IA estará impulsada por la geopolítica
Estados Unidos ha sido el líder mundial en investigación, desarrollo y comercialización de IA durante mucho tiempo, pero los hechos demuestran que China se está poniendo al día rápidamente. En la actualidad, las universidades chinas están produciendo más licenciados y doctores en campos de IA, y las herramientas de IA desarrolladas por empresas chinas están reduciendo la brecha de rendimiento frente a los competidores estadounidenses. El riesgo (o más bien la certeza) es que los actores de este juego político de alto riesgo empiecen a plantearse dónde debe sacrificarse la ética en aras de la eficiencia.
Por ejemplo, la apertura y la transparencia son objetivos éticos de la IA, ya que una IA transparente nos ayuda a comprender sus decisiones y a asegurarnos de que sus acciones son seguras. Sin embargo, la necesidad de mantener secretos que confieren una ventaja competitiva podría afectar a las decisiones y actitudes sobre el grado exacto de transparencia de la IA. Se sabe que China se ha basado en gran medida en el trabajo de código abierto de empresas estadounidenses para construir sus propios modelos y algoritmos de IA. En caso de que Estados Unidos decida actuar aquí para tratar de preservar su ventaja, podría tener implicaciones sobre cuán abierto y transparente será el desarrollo de la IA en los próximos años.
3/ La ética de la IA es responsabilidad de todos
En lo que respecta a la IA, es importante no dar por sentado que existe una autoridad centralizada que detectará cuándo las cosas no se están haciendo correctamente y acudirá al rescate. Los legisladores tendrán inevitablemente dificultades para seguir el ritmo del desarrollo, y la mayoría de las empresas se están quedando atrás a la hora de establecer sus propias normas, reglamentos y mejores prácticas.
Es difícil predecir las formas en que la IA cambiará la sociedad e, inevitablemente, algunas de ellas causarán daños, por lo que es importante que todo el mundo comprenda la responsabilidad compartida de estar alerta. Esto significa fomentar canales de conversación fluidos sobre el impacto y garantizar que se fomenten la transparencia y las denuncias éticas. Dado que nos afectará a todos, todos debemos sentir que tienen voz en el debate sobre las normas y lo que es y no es éticamente aceptable.
4/ La ética debe incorporarse a la IA, no ser un añadido
La IA ética no es un «bien que hay que tener», ni un elemento que haya que tachar de la lista justo antes de poner en marcha un proyecto. En ese momento, cualquier incertidumbre en torno a defectos como los datos sesgados, la posibilidad de violar la privacidad o las evaluaciones de seguridad estará incorporada. Nuestro enfoque de la IA ética debe ser proactivo en lugar de reactivo, lo que significa evaluar cada paso para detectar la posibilidad de causar daños o infracciones éticas en la fase de planificación. Deben incluirse salvaguardas en la planificación estratégica y la gestión de proyectos para minimizar cualquier posibilidad de que el sesgo de los datos, la falta de transparencia o las violaciones de la privacidad conduzcan a fallos éticos.
5/ La confianza es primordial
Bien, lo último y muy importante que hay que recordar es que no hacemos IA ética sólo porque nos da una sensación de bienestar. Es porque es absolutamente fundamental para utilizar la IA en todo su potencial.
Esto se debe en gran medida a una palabra: confianza. Si la gente ve que la IA toma decisiones sesgadas o que se utiliza sin responsabilidad, sencillamente no confiará en ella. Sin confianza en la IA, es poco probable que la gente comparta los datos en los que se basa o la adopte en la práctica.
En general, el nivel de confianza que la sociedad deposite en la IA es lo que acabará determinando si alcanza su potencial para ayudarnos a resolver problemas grandes y difíciles, como la lucha contra el cambio climático o la desigualdad. La IA ética consiste en generar confianza y asegurarnos de que no echamos por tierra su potencial enormemente positivo antes de que podamos ponerla en práctica.
