Máquinas inteligentes y capitalismo: ¿Se puede lograr un desarrollo responsable?

Daniel Gómez
5 min readMay 4, 2023

--

La inteligencia artificial (IA) avanza rápidamente y con ella surgen preocupaciones sobre los riesgos y beneficios de su adopción. En una entrevista de NPR Technology, Ifeoma Ajunwa, profesora de derecho en la Universidad de Carolina del Norte en Chapel Hill, discutió cómo las compañías pueden desarrollar IA de manera responsable y la posible necesidad de una regulación gubernamental.

Ajunwa identificó riesgos reales asociados con la IA, como la discriminación y su impacto en el mercado laboral y el lugar de trabajo. Un ejemplo reciente es la huelga de guionistas, quienes exigen limitar el uso de la IA en la escritura de guiones para programas de televisión y películas.

Photo by Markus Spiske on Unsplash

La huelga de guionistas y el temor a un futuro dominado por la inteligencia artificial

La huelga de más de 11,000 guionistas de cine y televisión en los Estados Unidos, que comenzó esta semana por primera vez en 15 años y refleja el temor que sienten ante un futuro dominado por la inteligencia artificial.

El auge del streaming ha transformado la industria del entretenimiento de maneras que pueden perjudicar los ingresos de los guionistas, y la aparición de herramientas de IA como ChatGPT y Dall-E amenaza con afectar aún más sus medios de vida. Por ello, el Sindicato de Escritores de América (WGA) lidera la protesta y busca establecer límites estrictos en el uso de estas herramientas por parte de los estudios cinematográficos y televisivos.

El WGA exige garantías en su contrato de negociación colectiva que prohíban la utilización de IA en la escritura, reescritura y para el entrenamiento para la generación de material literario. La Alianza de Productores de Cine y Televisión (AMPTP), que representa a ocho grandes estudios en las negociaciones, ha rechazado la propuesta del WGA y ha ofrecido “reuniones anuales para discutir avances tecnológicos”.

Mientras algunos profesionales del sector argumentan que la IA no representará una amenaza real para los guionistas, otros sienten que los avances en la tecnología pueden poner en peligro la creatividad y el papel fundamental de la imaginación humana en la creación de trabajos escritos.

¿Puede la IA desarrollarse responsablemente en un sistema capitalista?

Ante la pregunta de cómo las empresas pueden desarrollar IA de manera responsable en un sistema capitalista, Ajunwa argumentó que, si bien las compañías siempre buscarán obtener ganancias, deben recordar que, si los trabajadores no pueden obtener buenos salarios y pierden empleos, la economía dejará de funcionar para los seres humanos.

La profesora también abogó por la intervención gubernamental en la regulación de la IA, señalando que la tecnología se desarrolla rápidamente y que, sin la supervisión del gobierno, la IA podría volverse demasiado grande, complejo y difícil de regular. La idea es asegurarse de que se desarrolle de manera responsable y con justicia para los humanos.

Sin embargo, Ajunwa reconoció que el gobierno suele ser lento para adaptarse a los avances tecnológicos. Aun así, insta a los legisladores a tratar de mantenerse al día con el rápido progreso de la IA y garantizar que se desarrolle de manera justa y responsable.

Si bien la IA tiene un gran potencial para mejorar la eficiencia y la toma de decisiones en el lugar de trabajo, pero también plantea riesgos en términos de privacidad, discriminación y responsabilidad. En este contexto, resulta esencial explorar las formas en que se pueden regular y controlar las tecnologías de IA para maximizar sus beneficios y minimizar los daños.

Expertos en políticas tecnológicas abogan por un enfoque equilibrado en la regulación de la IA

Al igual que Ajunwa, otros expertos en políticas tecnológicas han abordado el desafío de regular la IA y han destacado la necesidad de un enfoque equilibrado que una regulación efectiva que proteja a los usuarios y garantice un desarrollo responsable de la tecnología.

S. Shyam Sundar, Profesor de Efectos Mediáticos y director del Centro para la IA Socialmente Responsable de Penn State, señala que la IA plantea un desafío único porque los diseñadores no pueden estar seguros de cómo se comportarán los sistemas de IA. Sugiere que es necesario un marco de regulación que incluya auditorías periódicas y monitoreo de los resultados y productos de la IA, aunque también reconoce que no siempre se puede responsabilizar a los diseñadores de los sistemas por posibles fallos.

Cason Schmit, Profesor Asistente de Salud Pública de la Universidad de Texas A&M, considera que regular la IA es complicado, especialmente debido a la dificultad de definir legalmente la IA y comprender los riesgos y beneficios asociados. Schmit propone combinar enfoques de “leyes suaves” y “leyes duras” para enfrentar los desafíos únicos de la IA. Un ejemplo de esto es el modelo Copyleft AI with Trusted Enforcement (CAITE), que combina dos conceptos muy diferentes, elementos de licencias de copyleft y los “trolls de patentes” para regular y garantizar el cumplimiento de las directrices éticas en el uso de IA.

John Villasenor, Profesor de Ingeniería Eléctrica, Derecho, Política Pública y Gestión de la Universidad de California, Los Ángeles, plantea cuatro preguntas clave que deben abordarse al considerar la regulación de la IA:

  1. ¿Es necesaria una regulación específica para la IA?
  2. ¿Cuáles son los riesgos de regular una tecnología en constante cambio basándose en un momento específico?
  3. ¿Cuáles son las posibles consecuencias no deseadas?
  4. ¿Cuáles son las implicaciones económicas y geopolíticas?

Navegando en un entorno tecnológico en constante evolución: adaptabilidad y flexibilidad

La creciente presencia de la inteligencia artificial en nuestra vida cotidiana ha generado una creciente necesidad de regular su uso y desarrollo. Las razones para esta regulación son múltiples: proteger la privacidad de los usuarios, prevenir la discriminación, garantizar la responsabilidad y evitar el abuso de la confianza depositada en la tecnología. Además, es fundamental reconocer que la IA puede tener efectos tanto positivos como negativos en diversos ámbitos, incluidos el empleo, la creatividad, la industria y la economía.

Los desafíos a la hora de regular la IA son numerosos y complejos, debido a la naturaleza cambiante de la tecnología y la dificultad de prever sus futuras aplicaciones y riesgos. Para enfrentar estos desafíos, es necesario adoptar un enfoque equilibrado que permita la adaptabilidad y la flexibilidad necesarias en un entorno en constante evolución.

Como sociedad, podemos enfrentar estos cambios asegurando un diálogo abierto y colaborativo entre los creadores de tecnología, los reguladores, los trabajadores y otros actores interesados. Además, es esencial fomentar la educación y la concienciación sobre los riesgos y beneficios de la IA, así como promover la innovación responsable y la transparencia en su desarrollo. Al tomar estas medidas, podremos aprovechar el potencial de la inteligencia artificial para mejorar nuestras vidas y, al mismo tiempo, garantizar un futuro más justo, inclusivo y sostenible para todos.

--

--

Daniel Gómez
Daniel Gómez

Written by Daniel Gómez

Lawyer by day, law hacker & IT guru by night. Capturing life through a lens📷, grooving to killer tunes🎵. Exploring tech, law & innovation💡Medium musings.

No responses yet