IA generativa: a perspectiva de um trabalhador

Download PDF
Share

IA generativa: a perspectiva de um trabalhador

IA generativa: a perspectiva de um trabalhador

Promessas e perigos

Table of contents

1. O que é IA generativa?

A IA generativa refere-se a um subconjunto da inteligência artificial que se concentra na criação (ou geração) de novos dados, conteúdos ou informações que imitam o resultado humano. Em vez de simplesmente processar dados ou executar tarefas predefinidas, a IA generativa pode gerar textos, imagens, músicas, códigos e até vídeos. Essa categoria de IA é particularmente poderosa não apenas porque aprende padrões ou analisa informações existentes, mas produz novos conteúdos com base nos padrões que aprendeu com seus dados de treinamento.

Um dos exemplos mais conhecidos de IA generativa é a série Chat GPT da OpenAI, que é treinada por enormes quantidades de dados de texto e pode gerar redações, responder a perguntas, escrever poesia e até mesmo participar de conversas. Outras ferramentas importantes incluem DALL-E (que gera imagens a partir de texto), Anthropic (para segurança e explicabilidade da IA generativa), Hugging Face (para desenvolvimento de IA generativa pela comunidade) e Midjourney (para produção de conteúdo visual).


2. Como funciona a IA generativa?

A IA generativa funciona por meio da combinação de algoritmos de machine learning (ML) e grandes quantidades de dados de treinamento. No centro da IA generativa estão modelos que são como redes neurais, arquiteturas de aprendizagem profunda. Essas redes são projetadas para imitar o funcionamento do cérebro, incluindo padrões de aprendizagem, fazendo previsões ou gerando novas informações com base em entradas anteriores.

A maioria dos modelos de IA generativa depende de algoritmos de aprendizado não supervisionado. Diferente dos algoritmos de aprendizado supervisionado, que dependem de dados rotulados para tentar direcionar os sistemas de IA para um resultado desejado, os algoritmos de aprendizado não supervisionado exigem que grandes quantidades de dados não rotulados sejam inseridos nos modelos. A partir disso, os sistemas de IA generativa aprendem a gerar conteúdo semelhante sem serem explicitamente programados. Na IA baseada em texto, por exemplo, os modelos são treinados usando vastos conjuntos de dados de livros, sites e artigos. Ao analisar esses dados, os sistemas de IA aprendem a gramática, o contexto, o tom e outras nuances da linguagem.

Dois componentes importantes de como os modelos de IA generativa operam são:

  • Fase de treinamento: durante essa fase, o modelo é alimentado com grandes quantidades de dados. Ele aprende a reconhecer padrões, estruturas e relacionamentos nos dados.

  • Fase de inferência: quando o modelo é colocado em ação, ele gera novo conteúdo prevendo o que deve vir a seguir com base no prompt ou na entrada fornecida pelo usuário.

O que é importante saber é que esses sistemas são alimentados por quantidades espantosas de energia. Nos próximos seis anos, os data centers necessários para desenvolver e executar os tipos de modelos de IA de última geração nos quais a Microsoft está investindo poderão usar mais energia do que toda a Índia. Eles serão resfriados por milhões e milhões de litros de água.

Assista a estes vídeos curtos sobre IA generativa e grandes modelos de linguagem (ou Large Language Models — os LLMs são um tipo específico de IA generativa que se concentra na compreensão e na criação de textos semelhantes aos textos humanos). Se você quiser se aprofundar no assunto, assista a este vídeo. (Observação: você pode escolher legendas em vários idiomas).



3. Casos de uso em serviços públicos

A IA generativa está encontrando seu lugar em uma ampla gama de setores de serviços públicos que vai desde a saúde e a educação até o trabalho administrativo e as forças policiais. Veja a seguir alguns casos de uso:

  • Saúde: a IA generativa é usada na criação de relatórios de saúde personalizados, solicitando que os médicos peçam determinadas informações aos pacientes durante as visitas ao consultório ou auxiliando os médicos no diagnóstico. Por exemplo, as ferramentas de IA podem gerar resumos de registros médicos, recomendar tratamentos com base em sintomas e criar modelos preventivos para os resultados dos pacientes. O Watson da IBM é um desses sistemas de IA que tem sido usado em oncologia para fornecer recomendações de tratamento.

  • Educação: nas escolas, a IA pode ajudar os professores gerando planos de aula, criando questionários automatizados ou até mesmo oferecendo tutoria personalizada aos alunos. Ferramentas como a Khan Academy começaram a integrar a IA generativa em suas plataformas para ajudar os alunos na solução de problemas em tempo real.

  • Governo e administração: os serviços públicos que têm a ver com a administração da cidade ou o bem-estar público podem usar a IA para gerar relatórios, responder a consultas públicas, decidir como os benefícios públicos serão distribuídos ou até mesmo automatizar tarefas básicas, como a geração de formulários. A administração de uma cidade pode usar a IA para prever e responder às necessidades de transporte público ou gerar automaticamente formulários de impostos com base na entrada do usuário.

  • Forças policiais: a IA é usada em todo o mundo para auxiliar as forças policiais, gerando relatórios, analisando padrões de crimes, e prevendo futuras ocorrências, ou até mesmo redigindo documentos legais.

  • Atendimento ao cliente: muitas instituições voltadas para o público agora usam chatbots orientados por IA para fornecer aos cidadãos respostas imediatas a consultas. Por exemplo, os governos locais podem usar a IA generativa para criar assistentes virtuais que respondam a perguntas sobre serviços públicos, como gerenciamento de resíduos ou pagamento de impostos.


4. Por que os serviços públicos usariam a IA generativa?

Como muitos serviços públicos são sucateados financeiramente, eles podem se sentir tentados a usar a IA generativa pelos seguintes motivos.

  • Aumento da eficiência: a IA generativa pode automatizar tarefas repetitivas, permitindo que os funcionários se concentrem em trabalhos mais complexos e significativos. Por exemplo, uma ferramenta de IA pode gerar relatórios ou responder a consultas de cidadãos, o que exigiria horas de trabalho manual.

  • Economia de custos: ao reduzir a necessidade dos funcionários realizarem tarefas de trabalho intensivo, a IA generativa pode diminuir os custos operacionais. Os governos podem realocar os orçamentos dos custos de pessoal para outras partes do serviço.

  • Criatividade aprimorada: a IA pode ajudar na solução criativa de problemas, gerando várias soluções ou ideias para questões complexas. Por exemplo, ela pode ajudar os planejadores urbanos a criar novos projetos para espaços públicos ou auxiliar os formuladores de políticas na elaboração de uma nova legislação.

  • Processamento de dados e tomada de decisões: a IA generativa pode analisar grandes quantidades de dados e gerar insights acionáveis, o que pode melhorar a tomada de decisões no âmbito dos serviços públicos. Por exemplo, ela pode ajudar os profissionais de saúde a analisar as tendências de saúde da população ou a elaborar respostas adequadas de saúde pública.

  • Personalização de serviços: em setores como educação e saúde, a IA generativa pode personalizar os serviços com base nas necessidades dos indivíduos. A IA pode ajudar a personalizar experiências de aprendizado ou adaptar tratamentos médicos a pacientes individuais.


5. Problemas com a IA generativa em serviços públicos

Embora a IA generativa possa oferecer alguns benefícios, ela também apresenta desafios significativos, especialmente quando implantada em serviços públicos. Veja a seguir uma análise ampliada das possíveis áreas problemáticas, desde preocupações éticas até limitações técnicas

Clique em um tópico para expandir

Deslocamento Econômico e da Força de Trabalho

As ferramentas generativas podem ser usadas como assistentes, aumentando a criatividade humana, mas também podem ser usadas para automatizar determinados tipos de trabalho. Há muitas questões em aberto sobre quais tarefas serão mais facilmente automatizadas e se essa automação resultará em uma redução no total de empregos, em uma mudança profunda na forma como determinado trabalho é valorizado ou em uma reestruturação do trabalho à medida que novos empregos forem criados. Por exemplo, um funcionário do serviço público responsável pela comunicação poderia (1) perder o emprego porque a gerência decide deixar que a IA generativa escreva os comunicados à imprensa; (2) sofrer uma redução no salário porque enfrentará mais concorrência no mercado (por conta das máquinas); ou (3) não escrever mais tanto manualmente, mas, em vez disso, ser encarregado de produzir textos finais usando IA ou, talvez, verificar os fatos dos textos produzidos pela IA.

A IA generativa pode levar a mudanças significativas na força de trabalho do serviço público, sendo o possível deslocamento de empregos uma grande preocupação:

  • Perda de empregos em determinados setores: à medida que a IA generativa assume tarefas como redação de relatórios, elaboração de documentos jurídicos e atendimento ao cliente, muitos empregos no serviço público podem estar em risco. Funções de escritório, administrativas e até mesmo algumas funções profissionais podem ser automatizadas, levando à perda de empregos e a desregulações econômicas.

  • Mudança nos requisitos de habilidades: é provável que a IA também mude a natureza do trabalho no serviço público. Os funcionários talvez precisem adquirir novas habilidades em supervisão de IA, gerenciamento de dados ou conformidade ética. Isso pode criar uma divisão entre aqueles que são capazes de melhorar suas habilidades e aqueles que são deixados para trás.

Responsabilidade e Falta de Transparência

A tomada de decisões pela IA geralmente é vista como uma “caixa preta”, em que o funcionamento interno do sistema é opaco até mesmo para aqueles que o projetam e implementam. Essa falta de transparência pode ser problemática em serviços públicos, onde a responsabilidade é crucial:

  • Tomada de decisões opaca: quando a IA é usada para tomar ou informar decisões — como alocar moradias públicas ou determinar a elegibilidade de serviços sociais —, pode haver pouca clareza sobre como essas decisões são tomadas. Isso pode minar a confiança do público, especialmente se os cidadãos sentirem que estão sendo tratados injustamente por um sistema de IA que não entendem.

  • Recurso legal limitado: se um sistema de AI cometer um erro que prejudique um cidadão — como negar um benefício ou classificar erroneamente alguém em um banco de dados de forças policiais —, pode ser difícil estabelecer a responsabilidade legal. A culpa deve recair sobre o fornecedor de IA, a instituição pública que usa o sistema ou os formuladores de políticas que aprovaram seu uso?

Falta de Supervisão Humana e Excesso de Confiança na IA

A IA generativa é uma ferramenta poderosa, mas os serviços públicos correm o risco de confiar demais nela, o que pode levar à falta de supervisão humana crítica na tomada de decisões:

  • Automatização de funções centradas no ser humano: se a IA generativa for usada para automatizar tarefas que exijam empatia e compreensão humanas — como o trabalho social, o aconselhamento ou a triagem de saúde —, isso pode levar a interações despersonalizadas, inadequadas ou até mesmo preconceituosas. Por exemplo, o uso de IA para avaliar solicitações de assistência social sem revisão humana pode fazer com que indivíduos vulneráveis que estejam enfrentando desafios singulares tenham serviços essenciais negados.

  • Erosão de habilidades: a dependência excessiva da IA pode levar a um declínio da expertise e do julgamento humano em áreas críticas. Os trabalhadores podem perder habilidades e experiência se dependerem muito de soluções geradas por IA sem entender completamente os problemas ou os contextos subjacentes.

Preconceito e Discriminação

Os sistemas de IA generativa são treinados em vastos conjuntos de dados que geralmente refletem preconceitos históricos. Quando esses conjuntos de dados contêm informações tendenciosas — seja sobre raça, gênero, status socioeconômico ou qualquer outra característica —, os modelos de IA tendem a perpetuar e até mesmo ampliar esses preconceitos. Nos serviços públicos, isso pode ter consequências graves. Por exemplo:

  • Preconceito racial ou de gênero na tomada de decisões: na medida em que os sistemas de IA aprendem a reconhecer padrões em conjuntos de dados não estruturados, eles podem identificar padrões com base em variáveis que correspondem a características de identidade protegidas pela legislação antidiscriminação. Dois exemplos comuns são raça e gênero. Os sistemas de IA usados nas forças policiais ou no sistema de justiça criminal podem apresentar preconceito racial em suas previsões, como visto em algumas ferramentas de policiamento preditivo. Ou, os sistemas de IA usados para contratação em empregos no setor público poderiam favorecer candidatos do sexo masculino em detrimento de candidatos do sexo feminino se os dados de treinamento refletirem desequilíbrios históricos de gênero.

  • Alocação discriminatória de bem-estar: os sistemas de IA usados para alocar benefícios sociais ou moradias públicas podem discriminar comunidades marginalizadas se os dados em que se baseiam forem enviesados. Por exemplo, se os dados históricos mostrarem que determinados grupos demográficos têm menos probabilidade de receber benefícios, a IA poderá continuar injustamente com esse padrão.

Para lidar com o preconceito, é necessário realizar auditorias contínuas e treinar novamente os modelos de IA em diversos conjuntos de dados. No entanto, alguns serviços públicos podem achar que isso é caro e demorado, especialmente se os recursos forem limitados. Além disso, pode ser que não existam conjuntos de dados diversos ou que eles não sejam adequados ao contexto para o uso pretendido do sistema. Em muitos casos, o serviço público em questão precisará substituir manualmente o sistema de IA para limitar a produção de material nocivo, mas esses tipos de intervenções são inevitavelmente frágeis e imperfeitas. Os funcionários dos serviços públicos no Reino Unido falaram da necessidade constante de substituir o sistema para evitar danos aos cidadãos.

Insensibilidade Cultural e Falta de Compreensão do Contexto

Os modelos de IA generativa geralmente são treinados em conjuntos de dados que podem ser diferentes do contexto em que o sistema é usado. Quando um sistema desenvolvido em um contexto é implantado em um local diferente, ele pode gerar interpretações culturais, valores ou mostrar questões que são percebidas como insensíveis ou inadequadas. Isso também é um problema quando os modelos de IA são treinados em conjuntos de dados globais se o sistema for usado para uma população específica. Esse cenário pode ser problemático em sociedades multiculturais nas quais os serviços públicos precisam atender a diversos grupos e em regiões geográficas onde os sistemas predominantemente treinados em dados do mundo ocidental são usados em outras regiões:

  • Serviços de tradução imprecisos: as ferramentas de tradução de IA usadas em serviços públicos podem encontrar dificuldades ao lidar com expressões idiomáticas culturais, dialetos locais ou uso de idiomas específicos do contexto, levando a erros de comunicação. Por exemplo, uma IA generativa que traduz documentos do governo pode não perceber o significado cultural de determinados termos, resultando em confusões.

  • Mensagens públicas insensíveis: quando a IA generativa é usada para gerar comunicações voltadas para o público, como anúncios de governo ou campanhas de saúde pública, há o risco de que a mensagem seja culturalmente insensível ou inadequada. Por exemplo, um sistema de IA generativa usado para criar conteúdo para uma campanha de saúde pública pode, sem saber, ofender determinadas comunidades religiosas ou étnicas se não entender seus costumes.

  • Barreiras de idioma: os chatbots que usam tecnologia de IA ou os sistemas de atendimento ao cliente implantados em serviços públicos podem não entender ou não responder com precisão a dialetos regionais ou idiomas minoritários. Por exemplo, na Índia, onde se falam muitos idiomas, um serviço de IA pode favorecer o hindi ou o inglês, deixando os falantes de idiomas menos comuns em desvantagem.

  • Interpretação errônea de práticas culturais: a IA usada em sistemas jurídicos ou de saúde pode interpretar erroneamente as práticas tradicionais, levando a recomendações ou decisões ruins. Por exemplo, se uma IA de saúde pública for programada com base em práticas médicas ocidentais, ela poderá desconsiderar práticas de cura indígenas ou culturais, fazendo com que grupos minoritários se sintam incompreendidos ou maltratados.

  • Estereótipos: como a IA generativa é treinada em grandes conjuntos de dados que incluem conteúdo tendencioso ou estereotipado, ela pode reforçar ou até mesmo ampliar estereótipos culturais preconceituosos ao interagir com pessoas de diferentes regiões. Por exemplo, se uma IA for solicitada a gerar imagens ou descrições de determinadas nacionalidades, ela poderá produzir retratos exagerados ou estereotipados com base em dados desatualizados ou tendenciosos.

  • Preconceito no contexto histórico ou social: a IA generativa treinada em determinados conjuntos de dados pode apresentar eventos históricos ou questões sociais a partir de uma perspectiva restrita, muitas vezes omitindo ou deturpando pontos de vista culturais importantes de outras regiões.

Fabricação e Desinformação

Os sistemas de IA generativa também são conhecidos por produzir regularmente informações totalmente fabricadas ou incorretas que podem parecer plausíveis, mas que são factualmente imprecisas. Isso é conhecido como “fabricação” ou “confabulação”, e pode ser problemático em serviços públicos nas quais a precisão é crucial, por exemplo:

  • Documentos jurídicos equivocados: se a IA for usada para gerar documentos legais ou aconselhamento na administração pública, as alucinações podem levar a um raciocínio jurídico falho ou a uma documentação incorreta, causando danos aos indivíduos ou atrasos nos processos legais.

  • Orientação médica enganosa: na área da saúde, a IA generativa pode alucinar informações que levem a tratamentos inadequados ou diagnósticos errados. Imagine um chatbot de saúde pública aconselhando cidadãos com base em informações falsas ou incompletas — isso poderia prejudicar seriamente a saúde pública.

Sustentabilidade e Impacto Ambiental

Os custos ambientais do treinamento e da execução de grandes modelos de IA são enormes. Os sistemas de IA generativa, especialmente os grandes modelos de linguagem (Large Language Models - LLM), como o ChatGPT, exigem recursos computacionais significativos, que consomem uma grande quantidade de energia:

  • Alta pegada de carbono: A potência computacional necessária para treinar e manter modelos de IA generativa pode ter uma pegada de carbono significativa. As instituições públicas devem pesar o custo ambiental da implantação de grandes sistemas de IA, especialmente à luz dos compromissos governamentais mais amplos de redução das emissões de carbono.

  • Intensidade de recursos: O hardware necessário para a IA — servidores de alto desempenho, sistemas de resfriamento, etc. — consome muitos recursos. Isso pode sobrecarregar os orçamentos e as infraestruturas públicas, em particular nas regiões que não possuem recursos tecnológicos avançados.

Violações de Privacidade e Riscos de Segurança de Dados

Em geral, os modelos de IA generativa são treinados em grandes conjuntos de dados, alguns dos quais podem conter informações pessoais confidenciais. Nos serviços públicos, em que a IA é frequentemente encarregada de lidar com dados confidenciais (como registros de saúde, informações de previdência social ou arquivos jurídicos), as preocupações com a privacidade são fundamentais:

  • Violações de dados: os sistemas de IA podem inadvertidamente revelar dados confidenciais. Por exemplo, se um sistema de IA generativo for usado para auxiliar no gerenciamento de casos em serviços sociais, ele poderá gerar um conteúdo que divulgue informações privadas sobre indivíduos sem o consentimento deles.

  • Risco de re-identificação: mesmo conjuntos de dados anônimos podem representar um risco à privacidade se os modelos de IA forem capazes de "re-identificar" indivíduos com base em padrões nos dados. Isso pode ser especialmente problemático na saúde pública, onde os dados sobre surtos de doenças podem expor detalhes pessoais dos pacientes.

Questões com a Propriedade Intelectual (PI)

Os sistemas de IA generativa geralmente criam novos conteúdos — seja texto, imagens ou até mesmo música — usando e transformando trabalhos existentes. Nos serviços públicos, onde são gerados conteúdos como documentos públicos, relatórios e materiais educacionais, isso levanta questões sobre direitos de propriedade intelectual:

  • Violação de direitos autorais: as ferramentas de IA generativas podem inadvertidamente gerar conteúdos que se assemelhem a obras protegidas por direitos autorais, levando a possíveis disputas legais. Por exemplo, se um sistema de IA gerar uma imagem ou slogan de campanha pública que se assemelhe muito a um logotipo ou frase comercial, as instituições públicas poderão ser responsabilizadas por violação.

  • Propriedade do conteúdo gerado por IA: em contextos de serviço público, determinar quem detém os direitos sobre o conteúdo gerado por IA pode ser uma área cinzenta do ponto de vista jurídico. O governo detém os direitos sobre os relatórios e documentos produzidos por uma IA ou é o criador original da IA quem detém esses direitos? Estruturas jurídicas claras ainda estão evoluindo, e por isso mesmo as instituições públicas devem ser cautelosas ao lidar com essa questão.


6. Dicas para trabalhadores de serviços públicos

Embora o campo da IA generativa ainda esteja surgindo e as respostas regulatórias estejam pendentes, gostaríamos de oferecer algumas respostas fluidas, mutáveis e não exaustivas que os trabalhadores do setor público podem adotar.

Antes de introduzir a IA generativa no local de trabalho, os trabalhadores devem exigir comunicação clara, transparência e salvaguardas da gerência para garantir que a tecnologia seja implantada de forma ética, segura e justa.

Mas, em primeiro lugar, como indivíduo, lembre-se do seguinte:

  • Nunca faça upload de material confidencial para esses sistemas. Isso inclui conjuntos de dados que incluem dados pessoais ou informações de identificação pessoal, arquivos de casos e similares. É importante lembrar que esses sistemas são desenvolvidos por empresas privadas. Depois que os dados são carregados, eles passam a ser deles.

  • Nunca confie nos resultados. Sempre verifique os resultados que receber — verifique os fatos e valide o conteúdo com fontes confiáveis.

  • Considere o impacto ambiental de mexer com esses sistemas.

Em seu ambiente de trabalho, tente fazer o seguinte antes de aceitar usar a IA generativa no trabalho:

A gerência, em consulta com você, estabeleceu uma política interna claramente definida que rege como a IA generativa será usada no local de trabalho. Isso deve abranger tópicos como:

  • Estipulações de que materiais confidenciais nunca devem ser carregados nesses sistemas. Isso inclui conjuntos de dados que incluam dados pessoais ou informações de identificação pessoal, arquivos de casos e similares.

  • Linguagem que garanta que os funcionários não serão obrigados a usar seus endereços de e-mail pessoais para criar uma conta para fins de trabalho.

  • Uma "garantia de manutenção dos empregos", ou seja, que a introdução da IA não levará à perda imediata de empregos

  • Instruções claras sobre quem pode usar a IA, como ela será integrada aos processos de trabalho, em que tipo de tarefas ela pode ajudar e um plano para aprimorar/requalificar os trabalhadores durante o tempo de trabalho.

  • Um esquema de treinamento para garantir aos trabalhadores uma boa compreensão do que a IA pode e não pode fazer para evitar mal-entendidos sobre seu possível impacto e desempenho.

  • Linguagem que estabeleça proteções se as condições de trabalho forem alteradas.

  • Informações para todos os trabalhadores em uma linguagem simples sobre a natureza e a finalidade dos sistemas usados

  • Garantias claras de privacidade, por exemplo, sobre para quais outros fins os dados registrados durante o uso do sistema de IA generativa são usados, e por quem eles podem ser usados.

  • Princípios de controle humano que garantam que os funcionários tenham o direito e o tempo adequado para verificar a validade das informações produzidas pelos sistemas de IA generativa

  • Políticas claras sobre como os dados serão protegidos, armazenados e usados se a gerência usar a IA generativa para processar os dados dos funcionários. Isso inclui informações pessoais e comunicações que podem ser analisadas pela IA generativa.

  • Estratégias de mitigação de preconceitos, incluindo como a gerência garantirá que os sistemas de IA não reforcem os preconceitos existentes, especialmente nos processos de tomada de decisão que afetam os funcionários e/ou o público.

  • Estruturas de responsabilidade: a gerência deve estabelecer estruturas de prestação de contas, para que fique claro quem é responsável pelas decisões tomadas com a contribuição da IA. Os trabalhadores e o público devem saber onde levantar suas preocupações se a IA estiver cometendo erros ou causando danos. Para isso, estabeleça um sistema de denúncia de irregularidades (para que as denúncias sejam feitas com segurança)

  • Mensuração do impacto ambiental

  • Mecanismos de reclamação para permitir que os problemas sejam resolvidos com antecedência, antes que se agravem, além de ajudar a identificar padrões ao longo do tempo

  • Due diligence da cadeia de suprimentos (por exemplo, garantir que todos os trabalhadores envolvidos no desenvolvimento e na moderação de sistemas de IA generativa, incluindo anotadores de dados, moderadores de conteúdo, e trabalhadores contratados recebam um salário digno com base em sua região)

  • Os materiais gerados pela IA em colaboração com ou sob a direção de trabalhadores devem ser de propriedade conjunta do(s) trabalhador(es) e do serviço público. Os trabalhadores mantêm direitos parciais de propriedade, especialmente quando sua criatividade, experiência ou conhecimento influenciam significativamente o resultado da IA.

  • Qualquer material, avisos, dados ou especificações fornecidos pelos trabalhadores para orientar o sistema de IA serão reconhecidos como sua propriedade intelectual (PI). O trabalhador terá o direito de ser creditado como cocriador de qualquer conteúdo gerado pela IA que resulte de sua contribuição.

  • Se os materiais gerados por IA resultarem em ganhos comerciais ou outros benefícios, os trabalhadores terão direito a uma participação justa nos lucros ou outros benefícios, proporcionalmente à sua contribuição. Devem ser estabelecidos mecanismos transparentes de compartilhamento de lucros ou qualquer outro meio de redistribuição de ganhos para a força de trabalho.

  • Garantia de que as políticas serão revisadas regularmente com a contribuição dos funcionários para garantir que permaneçam relevantes à medida que a IA evolui e seu papel no local de trabalho muda.

Observação: se você não tiver o direito legal de consulta ou se isso não estiver garantido em seu acordo coletivo, negocie o direito de ser consultado antes que a gerência introduza sistemas de IA generativa e tente incluir o maior número possível de itens do ponto 1 acima.

Além disso, você pode levantar os seguintes pontos com a gerência.

A gerência deve ser capaz de provar que cumpre todas as obrigações legais, como as relacionadas à saúde e à segurança, à proteção de dados (incluindo avaliações de impacto), à igualdade e à lei de direitos humanos.

A gerência deve implementar auditorias regulares do sistema que serão conduzidas em cooperação com você/seu sindicato.

A gerência deve garantir práticas não discriminatórias: o uso da IA deve ser cuidadosamente verificado quanto à justiça e à não discriminação.

Transparência na tomada de decisões sobre IA: o público deve ter o direito de saber quando a IA generativa estiver envolvida em decisões como avaliações de bem-estar, aplicação da lei ou respostas de saúde pública. O serviço público deve permanecer transparente e responsável perante os trabalhadores e o público.


7. Conclusão

Há um risco considerável de que o uso de sistemas de IA pelos serviços públicos ajude as grandes empresas de tecnologia a consolidar seu poder. O controle corporativo sobre os serviços públicos já é generalizado e estimulado pelo impulso cada vez maior de integrar sistemas digitais em tudo, desde a prestação de serviços sociais, passando pela avaliação de pedidos de emprego, até a elaboração de políticas e a democracia. Adicione a isso as tendências gerais de privatização e o aumento dos contratos públicos relacionados ao desenvolvimento de sistemas digitais para serviços públicos pelo setor privado e o quadro fica claro.

Além disso, as grandes empresas de tecnologia têm controle sobre grandes quantidades de dados, não apenas por meio de serviços públicos, mas também pelos serviços que oferecem às empresas e ao público. Elas têm os recursos financeiros, o poder computacional necessário para executar sistemas de IA e o conhecimento técnico necessário para isso.

Para proteger os serviços públicos de qualidade e a democracia, é, portanto, pertinente que os sindicatos do serviço público em todo o mundo se envolvam na defesa de leis e políticas inclusivas de governança de IA. Essas políticas devem fortalecer a autonomia e as capacidades do serviço público para limitar as relações de dependência com os interesses comerciais; revisar as exigências dos contratos públicos para incluir a contabilidade do impacto ambiental e social; proteger empregos de qualidade e redistribuir os lucros obtidos com as tecnologias digitais de volta para a força de trabalho; garantir a transparência e a responsabilidade dos sistemas de IA; aumentar a propriedade dos dados; incluir a governança inclusiva obrigatória dos sistemas de IA e muito mais.

Muitos desses impulsos políticos podem ser direcionados por meio de negociações coletivas. Para isso, a PSI desenvolveu três ferramentas que podem ser úteis. A primeira é o Digital Bargaining Hub, um banco de dados aberto de cláusulas de negociação coletiva, acordos-quadro e similares de sindicatos de todo o mundo. Fique a par das novas negociações dos sindicatos a respeito do uso da IA generativa!

O segundo é o Guia de Co-Governança e o terceiro é chamado de Guia do Ciclo de Vida dos Dados no Trabalho. Todos os três são importantes quando a gerência usa sistemas de IA generativa para informar suas decisões gerenciais sobre os trabalhadores e nos serviços que você presta ao público.

Video

This 18min video covers key questions such as What is generative AI, how does it work, how do I use it, what are some of the risks & limitations. Also covers things like autonomous agents, the role of us humans, prompt engineering tips, AI-powered product development, origin of ChatGPT, different types of models, and some tips about mindset around this whole thing.

Generative AI in a Nutshell - how to survive and thrive in the age of AI

Leia mais

Welcome to our digitalisation page - where you can find our key publications, resources and news on how unions can shape the digital transformation in the interests of workers and public services.