IA generativa: la perspectiva de unx trabajadorx

Download PDF
Share

IA generativa: la perspectiva de unx trabajadorx

IA generativa: la perspectiva de unx trabajadorx

Promesas y riesgos

Table of contents es

1. ¿Qué es la IA Generativa?

La IA generativa se refiere a un subconjunto de la inteligencia artificial que se centra en la creación (o generación) de nuevos datos, contenidos o información que imitan la producción humana. En lugar de limitarse a procesar datos o realizar tareas predefinidas, la IA generativa puede generar texto, imágenes, música, código e incluso videos. Esta categoría de IA es especialmente potente porque no se limita a aprender patrones o analizar informaciones existentes, sino que produce nuevos contenidos basados en los patrones que ha aprendido de sus datos de entrenamiento.

Uno de los ejemplos más conocidos de IA generativa es la serie ChatGPT de OpenAI, que se entrena con cantidades masivas de datos de texto y puede generar ensayos, responder preguntas, escribir poesía e incluso participar en conversaciones. Otras herramientas destacadas son DALL-E (que genera imágenes a partir de texto), Anthropic (para la seguridad y explicabilidad de la IA generativa), Hugging Face (para el desarrollo de IA generativa impulsada por la comunidad) y Midjourney (para producir contenidos visuales).


2. ¿Cómo funciona la IA Generativa?

La IA Generativa funciona combinando algoritmos de aprendizaje automático (ML) y grandes cantidades de datos de entrenamiento. En el corazón de la IA generativa se encuentran modelos como las redes neuronales, específicamente arquitecturas de aprendizaje profundo. Estas redes están diseñadas para imitar el funcionamiento del cerebro, incluyendo el aprendizaje de patrones, la realización de predicciones o la generación de nueva información basada en entradas previas.

La mayoría de los modelos de IA generativa se basan en algoritmos de aprendizaje no supervisado. A diferencia de los algoritmos de aprendizaje supervisado, que se basan en datos etiquetados para tratar de conducir los sistemas de IA hacia un resultado deseado, los algoritmos de aprendizaje no supervisado requieren alimentar los modelos con grandes cantidades de datos sin etiquetar. A partir de ellos, los sistemas de IA generativa aprenden a generar contenidos similares sin ser programados explícitamente. En la IA basada en texto, por ejemplo, los modelos se entrenan utilizando vastos conjuntos de datos de libros, sitios web y artículos. Analizando estos datos, los sistemas de IA aprenden gramática, contexto, tono y otros aspectos matizados del lenguaje.

Dos componentes importantes del funcionamiento de los modelos de IA generativa son:

  • Fase de entrenamiento: Durante esta fase, el modelo se alimenta de grandes cantidades de datos. Aprende a reconocer patrones, estructuras y relaciones en los datos.

  • Fase de inferencia: Cuando el modelo se pone en acción, genera nuevos contenidos prediciendo lo que debería venir a continuación basándose en las indicaciones o entradas proporcionadas por el usuario.

Lo que es importante saber es que estos sistemas se alimentan de cantidades increíbles de energía. En los próximos seis años, los centros de datos necesarios para desarrollar y ejecutar los modelos de IA de nueva generación en los que está invirtiendo Microsoft podrían consumir más energía que toda la India. Se refrigerarán con millones y millones de litros de agua.

Ve estos videos cortos sobre IA generativa y modelos extensos de lenguaje (los LLM son un tipo específico de IA generativa que se centra en comprender y crear texto similar al humano). Si quieres profundizar más, mira este video. (Nota: puedes elegir subtítulos en muchos idiomas.)



3. Casos de uso en los servicios públicos

La IA Generativa está encontrando su lugar en una amplia gama de sectores de servicios públicos, desde la salud y la educación hasta el trabajo administrativo y la aplicación de la ley. Aquí están algunos casos de uso:

  • Salud: La IA generativa se utiliza para crear informes de salud personalizados, orientando los médicos a que soliciten determinadas informaciones a los pacientes durante las consultas, o ayudar a los médicos en el diagnóstico. Por ejemplo, las herramientas de IA pueden generar resúmenes a partir de historiales médicos, recomendar tratamientos basados en síntomas y crear modelos predictivos de los resultados de los pacientes. Watson, de IBM, es un sistema de IA que se ha utilizado en oncología para recomendar tratamientos.

  • Educación: En las escuelas, la IA puede ayudar a los profesores generando planes de clases, creando cuestionarios automatizados o incluso ofreciendo tutoría personalizada a los estudiantes. Herramientas como Khan Academy han empezado a integrar la IA generativa en sus plataformas para ayudar a los estudiantes a resolver problemas en tiempo real.

  • Gobierno y Administración: Los servicios públicos, como la administración municipal o el bienestar público, pueden utilizar la IA para generar informes, responder a consultas públicas, decidir cómo se distribuyen las prestaciones públicas o incluso automatizar tareas básicas como la generación de formularios. La administración de una ciudad puede utilizar la IA para predecir y responder a las necesidades de transporte público, o generar automáticamente formularios fiscales basados en la información provista por el usuario.

  • Fuerzas de seguridad: La IA se utiliza en todo el mundo para ayudar a las fuerzas de seguridad generando informes, analizando patrones delictivos y prediciendo futuros delitos, o incluso redactando documentos legales.

  • Atención al cliente: Muchas instituciones públicas utilizan ahora chatbots basados en IA para ofrecer a lxs ciudadanxs respuestas inmediatas a sus consultas. Por ejemplo, los gobiernos locales pueden utilizar IA generativa para crear asistentes virtuales que respondan a preguntas sobre servicios públicos como la gestión de residuos o el pago de impuestos.


4. ¿Por qué utilizarían la IA generativa los servicios públicos?

Dado que muchos servicios públicos se encuentran en apuros económicos, pueden verse tentados a utilizar la IA Generativa por las siguientes razones.

  • Aumento de la eficiencia: La IA Generativa puede automatizar tareas repetitivas, permitiendo a lxs trabajadorxs centrarse en trabajos más complejos y significativos. Por ejemplo, una herramienta de IA puede generar informes o responder a consultas de lxs ciudadanxs, lo que de otro modo llevaría horas de trabajo manual.

  • Ahorro de costes: Al reducir la necesidad de que lxs trabajadorxs realicen tareas que requieren mucha mano de obra, la IA generativa puede reducir los costes operativos. Los gobiernos pueden reasignar presupuestos de los costes de personal a otras partes de su servicio.

  • Mayor creatividad: La IA puede ayudar a resolver problemas de forma creativa generando múltiples soluciones o ideas para cuestiones complejas. Por ejemplo, puede ayudar a los urbanistas a diseñar nuevos espacios públicos o a los responsables políticos a redactar nuevas leyes.

  • Procesamiento de datos y toma de decisiones: La inteligencia artificial generativa puede analizar grandes cantidades de datos y generar información práctica que mejore la toma de decisiones públicas. Por ejemplo, podría ayudar al personal sanitario a analizar las tendencias sanitarias de la población o a elaborar respuestas de salud pública adecuadas.

  • Personalización de servicios: En sectores como la educación y la salud, la IA generativa puede personalizar los servicios en función de las necesidades de las personas. La IA puede ayudar a personalizar las experiencias de aprendizaje o adaptar los tratamientos médicos a cada paciente.


5. Problemas de la IA generativa en los servicios públicos

Aunque la IA generativa puede ofrecer algunas ventajas, también plantea importantes retos, especialmente cuando se despliega en los servicios públicos. A continuación se ofrece un análisis ampliado de las posibles áreas problemáticas, desde los problemas éticos hasta las limitaciones técnicas.

Haz clic en un tema para ampliarlo

Desplazamiento económico y de mano de obra

Las herramientas generativas pueden utilizarse como asistentes, aumentando la creatividad humana, pero también para automatizar determinados tipos de trabajo. Hay muchas cuestiones abiertas sobre qué tareas serán más fácilmente automatizables y si esa automatización provocará una reducción del total de puestos de trabajo, un cambio profundo en la forma de valorar determinados trabajos o una reestructuración laboral, creándose nuevos empleos. Por ejemplo, un empleado de los servicios públicos responsable de la comunicación podría (1) perder su empleo porque la dirección decide dejar que la IA generativa redacte los comunicados de prensa; (2) sufrir una reducción salarial al tener que hacer frente a una mayor competencia (por parte de las máquinas) en el mercado o; (3) dejar de escribir tanto manualmente y, en su lugar, encargarse de producir los textos finales utilizando la IA o, tal vez, de comprobar los hechos de los textos producidos por la IA.

La IA generativa podría provocar cambios significativos en la mano de obra de los servicios públicos, siendo la posible pérdida de puestos de trabajo una de las principales preocupaciones:

  • Pérdida de puestos de trabajo en determinados sectores: A medida que la IA generativa se hace cargo de tareas como la redacción de informes, la redacción de documentos jurídicos y la atención al cliente, muchos empleos de los servicios públicos pueden estar en peligro. Las funciones administrativas, de oficina e incluso algunas funciones profesionales podrían automatizarse, lo que provocaría la pérdida de puestos de trabajo y trastornos económicos.

  • Cambio en los requisitos de cualificación: También es probable que la IA cambie la naturaleza del trabajo en los servicios públicos. Es posible que lxs trabajadorxs tengan que adquirir nuevas competencias en materia de supervisión de la IA, gestión de datos o cumplimiento ético. Esto puede crear una brecha entre lxs que pueden mejorar sus competencias y lxs que se quedan atrás.

Responsabilidad y falta de transparencia

La toma de decisiones en el ámbito de la IA se considera a menudo una "caja negra", en la que el funcionamiento interno del sistema es opaco incluso para quienes lo diseñan e implantan. Esta falta de transparencia puede ser problemática en los servicios públicos, donde la responsabilización es crucial:

  • Toma de decisiones opaca: Cuando se utiliza la IA para tomar o fundamentar decisiones —como la asignación de viviendas públicas o la determinación de la elegibilidad para los servicios sociales— puede haber poca claridad sobre cómo se toman esas decisiones. Esto puede erosionar la confianza pública, especialmente si lxs ciudadanxs sienten que están siendo tratadxs injustamente por un sistema de IA que no entienden.

  • Recursos legales limitados: Si un sistema de IA comete un error que perjudica a unx ciudadanx —como denegar una prestación o clasificar erróneamente a alguien en una base de datos policial— puede ser difícil establecer la responsabilidad legal. ¿Debe culparse al proveedor de IA, a la institución pública que utiliza el sistema o a los responsables políticos que aprobaron su uso?

Falta de supervisión humana y excesiva confianza en la IA

La IA generativa es una herramienta poderosa, pero los servicios públicos corren el riesgo de confiar excesivamente en ella, lo que llevaría a una falta de supervisión humana crítica en la toma de decisiones:

  • Automatización de funciones centradas en el ser humano: Si la IA generativa se utiliza para automatizar tareas que requieren empatía y comprensión humanas —como el trabajo social, el asesoramiento o el triaje en salud—, puede dar lugar a interacciones despersonalizadas, inapropiadas o incluso perjudiciales. Por ejemplo, el uso de la IA para evaluar las solicitudes de asistencia social sin revisión humana podría dar lugar a que se denegaran servicios esenciales a personas vulnerables con dificultades especiales.

  • Erosión de las competencias: La dependencia excesiva de la IA puede conducir a una disminución de la experiencia y el juicio humanos en áreas críticas. Lxs trabajadorxs pueden perder habilidades y experiencia si dependen demasiado de soluciones generadas por IA sin comprender plenamente los problemas subyacentes o el contexto.

Sesgos y discriminación

Los sistemas generativos de IA se entrenan en grandes conjuntos de datos que a menudo reflejan sesgos históricos. Cuando estos conjuntos de datos contienen información sesgada —ya sea sobre raza, género, estatus socioeconómico o cualquier otra característica—, los modelos de IA tienden a perpetuar e incluso amplificar estos prejuicios. En los servicios públicos, esto puede tener graves consecuencias. Por ejemplo:

  • Sesgo racial o de género en la toma de decisiones: A medida que los sistemas de IA aprenden a reconocer patrones en conjuntos de datos no estructurados, pueden identificar patrones basados en variables que corresponden a rasgos de identidad protegidos por la legislación antidiscriminación. Dos ejemplos comunes son la raza y el sexo. Los sistemas de IA utilizados en la aplicación de la ley o en el sistema de justicia penal podrían mostrar sesgos raciales en sus predicciones, como se ha visto en algunas herramientas de predicción policial. O los sistemas de IA utilizados para la contratación en el sector público podrían favorecer a los candidatos masculinos en detrimento de las candidatas femeninas si los datos de entrenamiento reflejan desequilibrios históricos entre hombres y mujeres.

  • Asignación discriminatoria de prestaciones sociales: Los sistemas de IA utilizados para asignar prestaciones sociales o viviendas públicas pueden discriminar a las comunidades marginadas si los datos en los que se basan están sesgados. Por ejemplo, si los datos históricos muestran que ciertos grupos demográficos tienen menos probabilidades de recibir prestaciones, la IA puede continuar injustamente con este patrón.

Abordar el sesgo requiere una auditoría continua y un reentrenamiento de los modelos de IA en diversos conjuntos de datos. Sin embargo, algunos servicios públicos podrían pensar que esto es costoso y lleva mucho tiempo, especialmente si los recursos son limitados. Además, es posible que no existan diversos conjuntos de datos o que su contexto no sea apropiado para el uso previsto del sistema. En muchos casos, el servicio público en cuestión tendrá que anular manualmente el sistema de IA para limitar la producción de material nocivo, pero este tipo de intervenciones son necesariamente frágiles e imperfectas. De hecho, lxs trabajadorxs de los servicios públicos del Reino Unido hablaron de la necesidad constante de anular un sistema para evitar daños a lxs ciudadanxs.

Insensibilidad cultural y falta de comprensión del contexto

Los modelos generativos de IA suelen entrenarse en conjuntos de datos que pueden diferir del contexto en el que se utiliza el sistema. Cuando un sistema desarrollado en un contexto se despliega en un lugar diferente, puede generar interpretaciones culturales, valores o cuestiones que se perciben como insensibles o inapropiadas. Esto también es un problema cuando los modelos de IA se entrenan en conjuntos de datos globales si el sistema se utiliza para una población concreta. Esto puede ser problemático en sociedades multiculturales en las que los servicios públicos deben atender a grupos diversos, y a través de geografías en las que sistemas formados predominantemente con datos del mundo occidental se utilizan en otras regiones:

  • Servicios de traducción inexactos: Las herramientas de traducción de IA utilizadas en los servicios públicos pueden tener problemas con los modismos culturales, los dialectos locales o el uso del lenguaje específico del contexto, lo que puede dar lugar a errores de comunicación. Por ejemplo, una IA generativa que traduzca documentos gubernamentales puede pasar por alto el significado cultural de ciertos términos, dando lugar a malentendidos.

  • Mensajes públicos insensibles: Cuando la IA generativa se utiliza para generar comunicaciones destinadas al público, como anuncios gubernamentales o campañas de salud pública, existe el riesgo de que los mensajes sean culturalmente insensibles o inapropiados. Por ejemplo, un sistema de IA generativa utilizado para crear contenidos para una campaña de salud pública podría ofender sin saberlo a determinadas comunidades religiosas o étnicas si no comprende sus costumbres.

  • Barreras lingüísticas: Los chatbots o sistemas de atención al cliente basados en IA desplegados en los servicios públicos pueden no entender o responder con precisión a dialectos regionales o lenguas minoritarias. Por ejemplo, en la India, donde se hablan muchas lenguas, un servicio de IA podría favorecer el hindi o el inglés, dejando en desventaja a lxs hablantes de lenguas menos comunes.

  • Interpretación errónea de prácticas culturales: La IA utilizada en los sistemas de salud o jurídicos puede malinterpretar las prácticas tradicionales y dar lugar a decisiones o consejos erróneos. Por ejemplo, si una IA de la salud pública se programa basándose en prácticas médicas occidentales, podría ignorar prácticas curativas indígenas o culturales, haciendo que los grupos minoritarios se sientan incomprendidos o maltratados.

  • Estereotipos: Dado que la IA generativa se entrena con grandes conjuntos de datos que incluyen contenidos sesgados o estereotipados, puede reforzar o incluso amplificar estereotipos culturales perjudiciales cuando interactúa con personas de diferentes regiones. Por ejemplo, si se pide a una IA que genere imágenes o descripciones de determinadas nacionalidades, puede producir representaciones exageradas o estereotipadas basadas en datos obsoletos o sesgados.

  • Sesgo en el contexto histórico o social: Las IA generativas entrenadas en determinados conjuntos de datos pueden presentar acontecimientos históricos o cuestiones sociales desde una perspectiva estrecha, a menudo omitiendo o tergiversando puntos de vista culturales importantes de otras regiones.

Fabricación y desinformación

También se sabe que los sistemas de IA generativa suelen producir información totalmente falsa o incorrecta que puede parecer plausible, pero que es inexacta. Es lo que se conoce como “fabricación” o “fabulación”. Esto puede ser problemático, por ejemplo, en los servicios públicos, donde la precisión es crucial:

  • Documentos jurídicos erróneos: Si la IA se utiliza para generar documentos o asesoramiento jurídico en la administración pública, las alucinaciones podrían dar lugar a un razonamiento jurídico erróneo o a una documentación incorrecta, causando perjuicios a las personas o retrasos en los procedimientos judiciales.

  • Asesoramiento médico engañoso: En salud, la IA generativa podría alucinar información que condujera a tratamientos inadecuados o diagnósticos erróneos. Imagínate un chatbot de salud pública aconsejando a lxs ciudadanxs basándose en información falsa o incompleta: podría poner en grave peligro la salud pública.

Sostenibilidad e impacto ambiental

Los costes medioambientales de entrenar y ejecutar grandes modelos de IA son enormes. Los sistemas de IA generativa, en particular los grandes modelos lingüísticos como ChatGPT, requieren importantes recursos informáticos, que consumen una enorme cantidad de energía:

  • Elevada huella de carbono: La potencia computacional necesaria para entrenar y mantener los modelos generativos de IA puede tener una relevante huella de carbono. Las instituciones públicas deben sopesar el coste medioambiental de desplegar grandes sistemas de IA, especialmente a la luz de los compromisos más amplios de los gobiernos para reducir las emisiones de carbono.

  • Intensidad de recursos: El hardware necesario para la IA —servidores de alto rendimiento, sistemas de refrigeración, etc.— consume muchos recursos. Esto puede sobrecargar los presupuestos públicos y las infraestructuras, especialmente en regiones que carecen de capacidades tecnológicas avanzadas.

Violaciones de la privacidad y riesgos para la seguridad de los datos

Los modelos generativos de IA suelen entrenarse con grandes conjuntos de datos, algunos de los cuales pueden contener información personal confidencial. En los servicios públicos, donde a menudo se encarga a la IA el tratamiento de datos confidenciales (como historiales médicos, información de la seguridad social o expedientes judiciales), la protección de la privacidad es primordial:

  • Filtración de datos: Los sistemas de IA pueden revelar inadvertidamente datos sensibles. Por ejemplo, si se utiliza un sistema de IA generativa para ayudar en la gestión de casos en los servicios sociales, podría generar contenidos que revelen información privada sobre las personas sin su consentimiento.

  • Riesgo de reidentificación: Incluso los conjuntos de datos anonimizados pueden plantear un riesgo para la privacidad si los modelos de IA son capaces de “reidentificar” a las personas basándose en patrones de los datos. Esto podría ser especialmente problemático en el ámbito de la salud pública, donde los datos sobre brotes de enfermedades podrían exponer inadvertidamente detalles personales de lxs pacientes.

Cuestiones de propiedad intelectual

Los sistemas de IA generativa suelen crear nuevos contenidos —ya sean textos, imágenes o incluso música— utilizando y transformando obras ya existentes. En los servicios públicos, donde se generan contenidos como documentos públicos, informes y materiales educativos, esto plantea cuestiones sobre los derechos de propiedad intelectual:

  • Infracción de los derechos de autor: Las herramientas de IA generativa pueden generar inadvertidamente contenidos muy parecidos a obras protegidas por derechos de autor, lo que puede dar lugar a conflictos legales. Por ejemplo, si un sistema de IA genera una imagen o un eslogan para una campaña pública que se parece demasiado a un logotipo o una frase comercial, las instituciones públicas podrían ser consideradas responsables de infracción.

  • Propiedad del contenido generado por IA: En contextos de servicio público, determinar a quién pertenecen los derechos sobre los contenidos generados por IA puede ser una zona gris desde el punto de vista jurídico. ¿Posee el gobierno los derechos de los informes o documentos producidos por una IA, o los posee el creador original de la IA? Los marcos jurídicos claros aún están evolucionando, pero las instituciones públicas deben ser cautelosas a la hora de tratar esta cuestión.


6. Consejos para lxs trabajadorxs de los servicios públicos

Aunque el campo de la IA generativa es aún emergente y las respuestas normativas están pendientes, nos gustaría ofrecer algunas respuestas fluidas, cambiantes y no exhaustivas que lxs trabajadorxs del sector público pueden adoptar.

Antes de introducir la IA generativa en el lugar de trabajo, lxs trabajadorxs deben exigir a la dirección comunicación clara, transparencia y salvaguardias para garantizar que la tecnología se despliega de forma ética, segura y justa.

Pero en primer lugar, como individuo, recuerda lo siguiente:

  • Nunca subas material sensible a estos sistemas. Esto incluye conjuntos de datos que incluyan datos personales o información de identificación personal, expedientes de casos y similares. Es importante recordar que se trata de sistemas desarrollados por empresas privadas. Una vez que se cargan los datos, pasan a ser suyos.

  • No te fíes nunca de los resultados. Comprueba siempre dos veces los resultados que recibes: verifica los hechos y valida cualquier contenido con fuentes fiables.

  • Ten en cuenta el impacto medioambiental de jugar con estos sistemas.

En tu entorno laboral, antes de aceptar utilizar IA generativa en el trabajo, intenta que se cumplan las siguientes condiciones:

La dirección, en consulta contigo, debe establecer una política interna claramente definida que regula cómo se utilizará la IA generativa en el lugar de trabajo. Debe abarcar temas como

  • Estipulaciones de que nunca deben cargarse materiales sensibles en estos sistemas. Esto incluye conjuntos de datos que incluyan datos personales o información de identificación personal, expedientes de casos y similares.

  • Un lenguaje que garantice que no se pedirá a lxs trabajadorxs que utilicen su dirección de correo electrónico personal para crear una cuenta con fines laborales.

  • Una “garantía de no pérdida de empleo”: es decir, que la introducción de la IA no conllevará la pérdida inmediata de puestos de trabajo.

  • Instrucciones claras sobre quién puede utilizar la IA, cómo se integrará en los procesos de trabajo, en qué tipo de tareas se permite que ayude y un plan de perfeccionamiento/recapacitación de lxs trabajadorxs en horario de trabajo.

  • Un plan de formación que garantice a lxs trabajadorxs una buena comprensión de lo que la IA puede y no puede hacer para evitar malentendidos sobre su posible impacto y rendimiento.

  • Lenguaje que establezca salvaguardias si se modifican las condiciones de trabajo.

  • Información a todxs lxs trabajadorxs en un lenguaje sencillo sobre la naturaleza y finalidad de los sistemas utilizados.

  • Salvaguardias claras sobre la privacidad, por ejemplo, para qué otros fines pueden utilizarse los datos registrados cuando se utiliza el sistema de IA generativa, y por quién.

  • Principios de humano en control que garanticen que lxs trabajadorxs tengan el derecho y el tiempo adecuado para comprobar la validez de la información producida por los sistemas de IA generativa.

  • Políticas claras sobre cómo se protegerán, almacenarán y utilizarán los datos si la dirección utiliza la IA generativa para procesar los datos de lxs trabajadorxs. Esto incluye la información personal y las comunicaciones que puedan ser analizadas por la IA Generativa.

  • Estrategias de mitigación de sesgos, incluyendo cómo garantizará la dirección que los sistemas de IA no refuerzan los sesgos existentes, especialmente en los procesos de toma de decisiones que afectan a lxs trabajadorxs y/o al público.

  • Estructuras de responsabilidad: La dirección debe establecer estructuras de responsabilidad, para que quede claro quién es responsable de las decisiones tomadas con aporte de la IA. Lxs trabajadorxs y el público deben saber dónde plantear sus preocupaciones si la IA está cometiendo errores o causando daños. Para ello, establecer un sistema de denuncia de irregularidades (para denunciar con seguridad).

  • Contabilidad medioambiental

  • Mecanismos de reclamación que permitan abordar los problemas en una fase temprana antes de que se agraven y ayuden a identificar patrones a lo largo del tiempo.

  • Diligencia debida en la cadena de suministro (por ejemplo, garantizar que todxs lxs trabajadorxs implicadxs en el desarrollo y la moderación de los sistemas generativos de IA, incluyendo anotadorxs de datos, moderadorxs de contenidos y trabajadorxs contratadxs, reciban un salario digno en función de su región).

  • Los materiales generados por la IA en colaboración con lxs trabajadorxs o bajo su dirección serán propiedad conjunta de lxs trabajadorxs y del servicio público. Lxs trabajadorxs conservarán derechos de propiedad parciales, especialmente cuando su creatividad, experiencia o conocimientos influyan significativamente en la producción de la IA.

  • Todo material, indicaciones, datos o especificaciones proporcionados por lxs trabajadorxs para guiar el sistema de IA serán reconocidos como su propiedad intelectual (PI). Lxs trabajadorxs tendrán derecho a ser acreditadxs como cocreadorxs de cualquier contenido generado por la IA que se derive de su aportación.

  • Si los materiales generados por la IA dan lugar a ganancias comerciales u otros beneficios, lxs trabajadorxs tendrán derecho a una participación justa en los beneficios u otros beneficios en proporción a su aporte. Deberán establecerse mecanismos transparentes para el reparto de beneficios o cualquier otro medio de redistribución de las ganancias entre lxs trabajadorxs.

  • Una garantía de que las políticas se revisarán periódicamente con los aportes de lxs trabajadorxs para garantizar que siguen siendo pertinentes a medida que evoluciona la IA y cambia su papel en el lugar de trabajo.

Nota: Si no tienes el derecho legal de consulta o no está garantizado en tu convenio colectivo, negocia el derecho a ser consultadx antes de que la dirección introduzca sistemas de IA Generativa e intenta incluir tantos puntos del punto 1 como sea posible.

Además, puedes plantear los siguientes puntos a la dirección.

La dirección debe poder demostrar que cumple todas las obligaciones legales, como las relativas a salud y seguridad, protección de datos (incluidas las evaluaciones de impacto), igualdad y legislación sobre derechos humanos.

La dirección debe poner en marcha auditorías periódicas del sistema que se llevarán a cabo en cooperación contigo/tu sindicato.

La dirección debe garantizar prácticas no discriminatorias: El uso de la IA debe examinarse a fondo para garantizar la equidad y la no discriminación.

Transparencia en la toma de decisiones sobre IA: El público debe tener derecho a saber cuándo la IA Generativa ha intervenido en decisiones tales como evaluaciones de bienestar, aplicación de la ley o respuestas de salud pública. El servicio público debe seguir siendo transparente y responsable ante lxs trabajadorxs y el público.


7. Conclusión

Existe un riesgo considerable de que el uso de sistemas de IA por parte de los servicios públicos solo ayude a las grandes empresas tecnológicas a consolidar su poder. El control empresarial sobre los servicios públicos ya está muy extendido y se ve impulsado por la creciente presión para integrar los sistemas digitales en todos los ámbitos, desde la prestación de servicios sociales hasta la evaluación de las solicitudes de empleo, pasando por la elaboración de políticas y la democracia. Si a esto se añaden las tendencias generales de privatización y el aumento de la contratación pública relacionada con el desarrollo por parte del sector privado de sistemas digitales para los servicios públicos, el panorama queda claro.

Además, las grandes empresas tecnológicas controlan cantidades masivas de datos no solo a través de los servicios públicos, sino también de los servicios que ofrecen a empresas y ciudadanxs. Disponen de los medios financieros, la potencia computacional necesaria para hacer funcionar sistemas de IA y tienen los conocimientos técnicos necesarios para ello.

Por lo tanto, para salvaguardar la calidad de los servicios públicos y la democracia, es pertinente que los sindicatos de los servicios públicos de todo el mundo aboguen por leyes y políticas inclusivas de gobernanza de la IA. Estas políticas deberían reforzar la autonomía y las capacidades de los servicios públicos para limitar las relaciones de dependencia de los intereses comerciales; revisar las exigencias de contratación pública para incluir la contabilidad del impacto medioambiental y social; salvaguardar los empleos de calidad y redistribuir los beneficios obtenidos de las tecnologías digitales entre lxs trabajadorxs; garantizar la transparencia y la responsabilización en los sistemas de IA; mejorar la propiedad de los datos; incluir la gobernanza inclusiva obligatoria de los sistemas de IA, y mucho más.

Muchos de estos empujones en las políticas pueden dirigirse a través de la negociación colectiva. Con este fin, la ISP ha desarrollado tres herramientas que pueden ser útiles. La primera es el Portal de negociación sobre digitalización. Se trata de una base de datos abierta de cláusulas de negociación colectiva, acuerdos marco y similares de sindicatos de todo el mundo. Esté atento a las negociaciones de los sindicatos sobre el uso de la IA Generativa.

La segunda es la Guía de cogobernanza y la tercera es el Ciclo de vida de los datos en el trabajo. Las tres son importantes cuando la dirección utiliza sistemas de IA generativa para fundamentar sus decisiones de gestión sobre lxs trabajadorxs y en los servicios que presta al público.

Video

This 18min video covers key questions such as What is generative AI, how does it work, how do I use it, what are some of the risks & limitations. Also covers things like autonomous agents, the role of us humans, prompt engineering tips, AI-powered product development, origin of ChatGPT, different types of models, and some tips about mindset around this whole thing.

Generative AI in a Nutshell - how to survive and thrive in the age of AI

Seguir leyendo

Quién gobierne la transformación digital es una de las cuestiones más importantes de la próxima década: los sindicatos deben estar preparados para dar forma a esta transformación en aras del interés público.