Para ler a primeira parte, clique aqui.
En la primera parte del texto quisimos discutir sobre la controversia que existió en los anales de la civilización griega, sobre la escritura. En fin, lo que un filósofo de la importancia de Platón observaba sobre eso que hoy hemos naturalizado como escritura. Que en sí misma, la escritura, es una tecnología. En aquella época, el concepto de tecnología, no era para nada parecido con nuestro concepto actual de tecnología. Hoy podemos percibir ciertas innovaciones como altamente tecnológicas y nunca nos imaginamos que la escritura en su evolución fue una gran innovación tecnológica. Por eso, podríamos decir que en aquella época pareciera ser que la escritura se percibía como hoy nosotros podemos percibir ciertas innovaciones tecnológicas, y tal tecnología fue controversial como lo demostramos en el diálogo platónico El Fedro.
Como dijimos en la primera parte del texto, la historia nos ha demostrado que la escritura, esa hermosa tecnología, que hasta hoy nos acompaña, ha sido y sigue siendo una herramienta fundamental del intelecto humano, sin ella hoy en día no tendríamos los famosos chatbots. Desde aquellas antiguas invenciones tecnológicas hasta las más actuales, el propósito ha sido buscar herramientas que nos ayuden a ampliar nuestro intelecto.
En el transcurso de la evolución de la escritura vimos cómo se fueron implementando ciertas e importantes normativas de uso, hasta alcanzar el nivel de las llamadas lenguas modernas. Que se convirtieron en grandes políticas lingüísticas, por ende, cada política intrínsecamente trae consigo un armazón jurídico que lo sustenta, como también, cada cuestión jurídica trae consigo un armazón ético que lo fundamenta.
Es por ello, que queremos fundamentar algunas de las consideraciones éticas en relación con los chatbots en especial con el ChatGPT, por eso, deberíamos entender a los chatbots en cuanto al contexto del enorme crecimiento de las IA. Porque en los últimos dos meses hemos visto cómo han crecido en más de 100 millones de usuarios, por ejemplo, Instagram tardó unos 30 meses en llegar a ese récord y Spotify unos 55 meses, esto es, que estamos hablando sobre una de las plataformas digitales más exitosa de la história. Claramente, son plataformas diferentes, unas son redes sociales y la otra un chatbot, pero en cuanto al uso, como en cuanto a la cantidad de usuarios y de curiosos ha sido una plataforma exitosa.
Por ende, no podemos negar la importancia que puedan tener los chatbots, como herramienta para programadores, comerciantes, estudiantes, servidores públicos, etc., pero debemos tener en cuenta que también tenga y pueda tener lados negativos; es por ello, que el mundo está precisando de políticas que regulen su uso, porque para los mismos creadores tal situación pudiera ser perjudicial. Hasta, Sam Altman, CEO de OpenAI, aprovechó su viaje a Corea del Sur para solicitar una regulación internacional coordinada de la inteligencia artificial generativa, la tecnología que respalda su famoso chatbot y dijo: «A medida que estos sistemas se vuelven muy, muy poderosos, esto requiere una preocupación especial y tiene un impacto global. Por lo tanto, también requiere cooperación global» (CNN Brasil, 2023)
En consecuencia, el llamado global a la regularización por parte del mismo CEO de la empresa creadora del ChatGPT es un grito a todos los gobiernos y congresos del mundo. Porque así como fue abierta a muchos países, también observamos que fue prohibida en países como China, Italia, Corea, Rusia e Irán y unos treinta países más. Entonces, la preocupación ética viene porque cuando se abren al público en general plataformas virtuales de inteligencia artificial como el ChatGPT los creadores deberían saber los límites adecuados para que este tipo de lenguajes pre-entrenados y de constante entrenamiento alimentado por internet y por las preguntas de los mismos usuarios puedan relacionarse lo más apropiadamente. Principalmente, ese pre-entrenamiento (GPT) viene de internet en donde se consiguen cosas buenas y cosas malas, pero pareciera ser que los chatbots no saben discriminarlas, pero según la UESCO (2023): «ChatGPT ha sido entrenado para rechazar solicitudes inapropiadas, por ejemplo, preguntas que violen los derechos de alguien, promuevan la discriminación, sean ofensivas o busquen deliberadamente inducir a error» (UNESCO, 2023, p. 5).
Pero la prohibición del ChatGPT tanto en Italia como por el Departamento de Educación de Nueva York, se debe principalmente por los errores cometidos en la precisión de la información y por el problema de plagios para el desarrollo de cualquier trabajo académico, artístico, etc. Algunas consideraciones e implicaciones éticas que se vislumbra en el texto de la UNESCO (2023) son las siguientes: la integridad académica, protección de datos, sesgos cognitivos, género y diversidad, accesibilidad o democratización tecnológica, comercialización y la falta de regularización, etc. (Cf. UNESCO, 2023, pp. 11-12).
En cuanto a la implicación de la integridad académica los educadores y educadoras del mundo se sienten alarmados porque con el ChatGPT se puede tener un mayor riesgo de plagio, si su uso se abusa en copia y pega en la elaboración de trabajos, exámenes, ensayos, etc. Y principalmente se resalta en el texto de la UNESCO (2023) que las mayores preocupaciones son en las áreas donde la escrita y la memoria juega un papel fundamental, por ejemplo, en el caso de las ciencias humanas y sociales que son disciplinas de elaboración de monografías, escritos y ensayos diversos, largos exámenes de complejas teorías donde la memoria y la escrita juega un papel fundamental, a diferencia de disciplinas más prácticas que no precisan tanto de la complejización del pensamiento a través de la escritura, por ello, la principal petición de los profesores para el uso ético del chatGPT dentro de las universidades y escuelas es que con la misma proporción que van evolucionando estos chatbots se creen aplicativos de verificación de plagios (Cf. UNESCO, 2023).
Como ya dijimos y en cuánto a la implicación de la protección de datos precisamente fue Italia que se convirtió en el primer país en bloquear el ChatGPT debido a la preocupación de las autoridades con la privacidad de los datos e informaciones de los usuarios y que precisamente no existe una base legal para la regularización de estas plataformas tecnológicas. Y la gran preocupación de las autoridades italianas era que estas tecnologías no discriminan si el usuario era menor o mayor de edad, y en visto de, para protección al menor de edad se bloqueó provisionalmente el ChatGPT. Las preguntas fundamentales serían si los tipos de datos que se recopilan hacia dónde van estos datos, y como también, quién manipula esos datos (Cf. UNESCO, 2023).
Otra de las implicaciones es el sesgo cognitivo, esto quiere decir que para el pre-entrenador de lenguaje generativo ChatGPT no se rige por principios éticos y existencialmente no distingue entre las cosas buenas y las cosas malas, entre la verdad y la falsedad, su procesamiento es base de datos algorítmicas de lógica simbólica y proposicional que son convertidas en números, tomadas y procesadas de toda la información que se tiene de internet, es aquí donde se debería prevalecer la capacidad crítica de los usuarios y pesquisadores de confrontar críticamente la información dada por estos chatbots, porque pueden ser fuentes de información importante como fuente de desinformación (Cf. UNESCO, 2023).
Otra de las aplicaciones y consideraciones éticas en relación con estas nuevas tecnologías de la Inteligencia artificial es sobre el género y la diversidad porque se tienen diversas preocupaciones en cuanto a la discriminación de estas tecnologías, o sea, dentro del texto de la UNESCO tenemos, por ejemplo, la falta de participación femenina en la construcción y desarrollo de la Inteligencia artificial, tanto la investigación como el desarrollo de la misma y del poder representado por estas empresas como Open IA, Google, Microsoft, etc. recae mayoritariamente en hombres, evidentemente hay un sesgo de género en cuanto al trabajo de la mujer (Cf. UNESCO, 2023).
Otro aspecto y no menos importante es sobre la accesibilidad, en el texto de la UNESCO (2022), existen dos preocupaciones fundamentales sobre el problema de las accesibilidad a estas tecnologías. El primero es la falta de disponibilidad de esta tecnologías en algunos países por falta de internet o en el caso de Italia por miedo al sesgo de la información y de los datos por falta de regularización. La segunda gran preocupación es sobre la democratización de estas tecnologías, ya sea por el costo elevado del internet en algunos países (Cf. UNESCO, 2023).
A nuestra manera de ver estas implicaciones y consideraciones éticas por parte de la UNESCO, la más importante a resaltar es sobre la falta de regularización y que como ya lo dijimos, el CEO de la OpenIA, pide una integración global para la regularización. Nos dice que el ChatGPT y otras tecnologías parecidas avanzan a ritmos donde las burocracias de los gobiernos no se adaptan con la rapidez necesaria, eficiente y suficiente para regular dichas tecnologías. En cuanto al intento de regulación existen dos hechos noticiosos fundamentales: el primero fue una carta abierta de más de 1000 académicos y empresarios relacionados con la Inteligencia artificial, refiriéndose sobre los posibles peligros que puedan emanar de dichas tecnologías. El otro segundo intento y más concreto hasta hoy en día sobre la regularización de estos Chatbots ha sido por parte de la Unión Europea. La UE comienza a concretar política y legislativamente sobre las posibles regulaciones aplicadas a las inteligencias artificiales de pre-entrenamiento generativo del lenguaje o chatbots (Cf. UNESCO, 2023).
A nivel mundial, los debates más avanzados sobre la regulación de la IA se encuentran actualmente en la Unión Europea. El 14 de junio de este año, el bloque comercial aprobó una propuesta inicial de legislación, que aún pasará por el pleno europeo y debería ser sancionada a fines de 2023. La denominada “Ley de Inteligencia Artificial”, que destaca en su enmienda 3:
El presente Reglamento tiene por objeto promover la adopción de una inteligencia artificial fiable y centrada en el ser humano, garantizando un alto nivel de protección de la salud, la seguridad, los derechos fundamentales, la democracia, el Estado de derecho y el medio ambiente frente a los efectos nocivos de los sistemas de inteligencia artificial en la Unión, apoyando al mismo tiempo la innovación y mejorando el funcionamiento del mercado interior.
Lo que podemos interpretar de estos primeros intentos de regulación por parte de la UE es antropomorfizar y socializar la IA, es decir, que la IA este bajo el control total de los seres humanos, que es fiable para toda la humanidad, pero, sin perder el foco en la innovación y la mejora del mercado. Entonces, además, podríamos preguntarnos ante una posible contradicción: ¿cómo ser más explícitos al mencionar que la inteligencia artificial podría estar más centrada en el ser humano y al mismo tiempo no perder el foco en la innovación que se apoyará y mejorará en el contexto del mercado interior?, es decir, ¿pueden coexistir humanidad y capitalismo?
Pensamos que tales contradicciones pueden coexistir dentro de un contexto social que, más adelante, en la enmienda 12 describe la obligación de
…mejorando la previsión, optimizando las operaciones y la asignación de recursos, y personalizando las soluciones digitales disponibles para individuos y organizaciones, el uso de la inteligencia artificial puede brindar ventajas competitivas clave para las empresas y respaldar resultados beneficiosos para la sociedad y el medio ambiente, por ejemplo, en atención médica, agricultura, seguridad alimentaria, educación y formación, medios de comunicación, deportes, cultura, gestión de infraestructuras, energía, transporte y logística, gestión de crisis, servicios públicos, seguridad, justicia, eficiencia energética y de recursos, vigilancia medioambiental, conservación y restauración de la biodiversidad y los ecosistemas, y mitigación y adaptación a cambio climático.
Así, el Parlamento de la Unión Europea presenta una visión optimista y favorable sobre el uso de la inteligencia artificial en varios ámbitos, destacando sus posibles beneficios competitivos, sociales y medioambientales. Sin embargo, no menciona los posibles desafíos, limitaciones o riesgos asociados con la implementación de la inteligencia artificial como se describe en el texto de la UNESCO. Una mirada crítica podría señalar la necesidad de abordar cuestiones éticas, así como considerar los posibles impactos negativos, como la automatización del trabajo y la excesiva dependencia de la tecnología, es decir, la psicología de los usuarios.
Referências
CNN Brasil (2023). CEO da OpenAI, empresa do ChatGPT, pede cooperação global para regular a IA. Disponible en: https://x.gd/0208r
European Parliament. TEXTS ADOPTED. P9_TA (2023) 0236: Artificial Intelligence Act: Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)). 2019-2024. [S.l.: s.n.].
La Nación. (2023, Marzo 31). Italia se convierte en el primer país en bloquear el Chat GPT por no respetar la legislación sobre datos personales. Recuperado de https://www.lanacion.com.ar/el-mundo/italia-se-convierte-en-el-primer-pais-en-bloquear-el-chat-gpt-por-no-respetar-la-legislacion-sobre-nid31032023/
The White House. (2023, Mayo 4). Readout of White House Meeting with CEOs on Advancing Responsible Artificial Intelligence Innovation. Recuperado de: https://www.whitehouse.gov/briefing-room/statements-releases/2023/05/04/readout-of-white-house-meeting-with-ceos-on-advancing-responsible-artificial-intelligence-innovation/
UNESCO (2023). ChatGPT e inteligencia artificial en la educación superior: guía de inicio rápido. París: Francia. Disponible em: https://unesdoc.unesco.org/ark:/48223/pf0000385146_spa
UNESCO (2019). Preliminary study on the Ethics of Artificial Intelligence. París: Francia. Disponible em: https://unesdoc.unesco.org/ark:/48223/pf0000367823
Comments