제너레이티브 AI: 작업자의 관점

Download PDF
Share

제너레이티브 AI: 작업자의 관점

제너레이티브 AI: 작업자의 관점

약속과 위험

Table of contents

-
참고
: 이 발행물을 인쇄해야 하는 경우 이 워드 문서 버전을 다운로드하면 최상의 결과를 얻을 수 있습니다.

1. 생성형 AI란 무엇인가요?

생성형 AI는 인간과 유사한 결과물을 모방하는 새로운 데이터, 콘텐츠 또는 정보를 생성(또는 생성)하는 데 중점을 두는 인공 지능의 하위 집합을 말합니다. 단순히 데이터를 처리하거나 미리 정의된 작업을 수행하는 대신, 제너레이티브 AI는 텍스트, 이미지, 음악, 코드, 심지어 동영상까지 생성할 수 있습니다. 이 범주의 AI는 패턴을 학습하거나 기존 정보를 분석하는 데 그치지 않고 학습 데이터에서 학습한 패턴을 기반으로 새로운 콘텐츠를 생산하기 때문에 특히 강력합니다.

생성형 AI의 가장 잘 알려진 예로는 방대한 양의 텍스트 데이터로 학습되어 에세이를 작성하고, 질문에 답하고, 시를 쓰고, 심지어 대화에 참여할 수 있는 OpenAI의 Chat GPT 시리즈가 있습니다. 그 밖의 대표적인 도구로는 DALL-E(텍스트에서 이미지를 생성하는), Anthropic(생성 AI의 안전성과 설명성을 위한), Hugging Face(커뮤니티 중심의 생성 AI 개발을 위한), Midjourney(시각 콘텐츠 제작을 위한) 등이 있습니다.


2. 제너레이티브 AI는 어떻게 작동하나요?

제너레이티브 AI는 머신러닝(ML) 알고리즘과 방대한 양의 학습 데이터를 결합하여 작동합니다. 제너레이티브 AI의 핵심에는 신경망과 같은 모델, 특히 딥러닝 아키텍처가 있습니다. 이러한 네트워크는 패턴 학습, 예측 또는 이전 입력에 기반한 새로운 정보 생성 등 뇌의 기능을 모방하도록 설계되었습니다.

대부분의 생성형 AI 모델은 비지도 학습 알고리즘에 의존합니다. 레이블이 지정된 데이터에 의존하여 AI 시스템을 원하는 출력으로 유도하는 지도 학습 알고리즘과 달리, 비지도 학습 알고리즘은 레이블이 지정되지 않은 대량의 데이터를 모델에 공급해야 합니다. 이를 통해 생성형 AI 시스템

은 명시적으로 프로그래밍하지 않아도 유사한 콘텐츠를 생성하는 방법을 학습합니다. 예를 들어, 텍스트 기반 AI에서는 책, 웹사이트, 기사 등의 방대한 데이터 세트를 사용하여 모델을 학습시킵니다. 이 데이터를 분석함으로써 AI 시스템은 문법, 문맥, 어조 및 기타 언어의 미묘한 측면을 학습합니다.

생성형 AI 모델이 작동하는 방식에는 두 가지 중요한 구성 요소가 있습니다:

  • 학습 단계: 이 단계에서는 모델에 방대한 양의 데이터가 공급됩니다. 이 단계에서는 데이터의 패턴, 구조, 관계를 인식하는 방법을 학습합니다.

  • 추론 단계: 모델이 작동하면 사용자가 제공한 프롬프트나 입력에 따라 다음에 나올 내용을 예측하여 새로운 콘텐츠를 생성합니다.

중요한 점은 이러한 시스템이 엄청난 양의 에너지로 구동된다는 것입니다. 향후 6년 이내에 Microsoft가 투자하고 있는 차세대 AI 모델을 개발하고 실행하는 데 필요한 데이터 센터는 인도 전체보다 더 많은 전력을 사용할 수 있습니다. 또한 수백만 리터의 물로 냉각할 것입니다.

생성 AI와 대규모 언어 모델 (LLM은 인간과 유사한 텍스트를 이해하고 생성하는 데 중점을 두는 특정 유형의 생성 AI)에 대한 짧은 동영상을 시청하세요. 더 자세히 알아보고 싶다면 이 동영상을 확인하세요. (참고: 여러 언어로 된 자막을 선택할 수 있습니다.)



3. 공공 서비스에서의 활용 사례

제너레이티브 AI는 보건, 교육, 행정 업무, 법 집행 등 다양한 공공 서비스 분야에서 그 자리를 찾아가고 있습니다. 다음은 몇 가지 사용 사례입니다:

  • 의료 서비스: 제너레이티브 AI는 개인화된 건강 보고서를 작성하거나, 의사가 진료 중 환자에게 특정 정보를 요청하거나, 의사의 진단을 보조하는 데 사용됩니다. 예를 들어, AI 도구는 의료 기록에서 요약을 생성하고, 증상에 따라 치료법을 추천하며, 환자 결과에 대한 예측 모델을 만들 수 있습니다. IBM의 왓슨은 종양학 분야에서 치료 권장 사항을 제공하는 데 사용된 AI 시스템 중 하나입니다.

  • 교육: 학교에서는 AI가 수업 계획을 생성하고, 자동화된 퀴즈를 만들거나, 학생들에게 개인 맞춤형 과외를 제공함으로써 교사를 지원할 수 있습니다. 칸 아카데미와 같은 도구는 학생들의 실시간 문제 해결을 지원하기 위해 플랫폼에 제너레이티브 AI를 통합하기 시작했습니다.

  • 정부 및 행정: 도시 관리나 공공 복지와 같은 공공 서비스에서는 AI를 사용하여 보고서를 생성하고, 공공 문의에 응답하고, 공공 혜택의 분배 방법을 결정하거나 양식 생성과 같은 기본적인 작업을 자동화할 수 있습니다. 도시 행정 기관에서는 AI를 사용하여 대중교통 수요를 예측하고 이에 대응하거나 사용자 입력에 따라 세금 양식을 자동으로 생성할 수 있습니다.

  • 법 집행: 전 세계적으로 AI는 보고서를 생성하고 범죄 패턴을 분석하여 향후 범죄 발생을 예측하거나 법률 문서를 작성하는 등 법 집행을 지원하는 데 사용되고 있습니다.

  • 고객 서비스: 현재 많은 공공 기관에서 AI 기반 챗봇을 사용하여 시민들의 문의에 즉각적인 응답을 제공하고 있습니다. 예를 들어, 지방 정부는 생성형 AI를 사용하여 폐기물 관리나 세금 납부 같은 공공 서비스에 대한 질문에 답변하는 가상 비서를 만들 수 있습니다.


4. 공공 서비스에서 제너레이티브 AI를 사용하는 이유는 무엇인가요?

많은 공공 서비스가 재정적으로 압박을 받고 있기 때문에 다음과 같은 이유로 제너레이티브 AI를 사용하고 싶어 할 수 있습니다.

  • 효율성 향상: 제너레이티브 AI는 반복적인 작업을 자동화하여 직원들이 보다 복잡하고 의미 있는 업무에 집중할 수 있도록 해줍니다. 예를 들어, 수작업으로 몇 시간이 걸리는 보고서를 생성하거나 시민 질문에 답변할 수 있는 AI 도구가 있습니다.

  • 비용 절감: 제너레이티브 AI는 노동 집약적인 작업을 수행할 필요성을 줄임으로써 운영 비용을 절감할 수 있습니다. 정부는 인건비에서 절감된 예산을 서비스의 다른 부분으로 재배치할 수 있습니다.

  • 창의력 향상: AI는 복잡한 문제에 대한 여러 가지 솔루션이나 아이디어를 생성하여 창의적인 문제 해결을 지원할 수 있습니다. 예를 들어, 도시 계획가가 공공 공간을 위한 새로운 디자인을 고안하거나 정책 입안자가 새로운 법률 초안을 작성하는 데 도움을 줄 수 있습니다.

  • 데이터 처리 및 의사 결정: 생성형 AI는 방대한 양의 데이터를 분석하고 실행 가능한 인사이트를 생성하여 공공의 의사 결정을 개선할 수 있습니다. 예를 들어, 의료 종사자가 인구 건강 추세를 분석하거나 적절한 공중 보건 대응책을 마련하는 데 도움을 줄 수 있습니다.

  • 서비스 개인화: 교육 및 의료와 같은 분야에서 제너레이티브 AI는 개인의 필요에 따라 서비스를 개인화할 수 있습니다. AI는 학습 경험을 맞춤화하거나 개별 환자에게 맞는 의료 서비스를 제공할 수 있습니다.


5. 공공 서비스에서의 제너레이티브 AI의 문제점

생성형 AI는 몇 가지 이점을 제공할 수 있지만, 특히 공공 서비스에 도입할 경우 상당한 문제를 야기할 수 있습니다. 다음은 윤리적 문제부터 기술적 한계에 이르기까지 잠재적인 문제 영역에 대한 확장된 분석입니다.

확장하려면 주제를 클릭하세요.

경제 및 인력 이동

제너레이티브 도구는 인간의 창의력을 증강하는 보조 도구로 사용될 수도 있지만, 특정 유형의 작업을 자동화하는 데에도 사용될 수 있습니다. 어떤 업무가 가장 쉽게 자동화될 수 있는지, 자동화로 인해 전체 일자리가 줄어들지, 특정 업무의 가치가 크게 변화할지, 새로운 일자리가 창출되면서 노동 구조가 재편될지에 대한 질문은 여전히 많이 남아있습니다.예를 들어 커뮤니케이션을 담당하는 공공 서비스 직원은 (1) 경영진이 제너레이티브 AI에게 보도자료 작성을 맡기기로 결정하면서 일자리를 잃거나, (2) 시장에서 (기계와의) 경쟁이 심화되면서 급여가 줄어들거나, (3) 더 이상 수기로 작성하는 대신 AI를 활용해 최종 문장을 작성하거나 AI가 작성한 문장의 사실 확인을 담당하게 될 수 있습니다.

생성형 AI는 공공 서비스 인력에 상당한 변화를 가져올 수 있으며, 잠재적인 일자리 대체가 주요 관심사입니다:

  • 특정 분야에서의 일자리 손실: 보고서 작성, 법률 문서 작성, 고객 서비스 등의 업무를 제너레이티브 AI가 대신하게 되면 많은 공공 서비스 일자리가 위험에 처할 수 있습니다. 사무직, 관리직, 심지어 일부 전문직까지 자동화되어 일자리 손실과 경제적 혼란을 초래할 수 있습니다.

  • 기술 요구 사항의 변화: AI는 공공 서비스 업무의 성격도 변화시킬 가능성이 높습니다. 직원들은 AI 감독, 데이터 관리 또는 윤리 규정 준수와 관련된 새로운 기술을 습득해야 할 수도 있습니다. 이로 인해 기술을 향상시킬 수 있는 사람과 뒤처지는 사람 사이에 격차가 발생할 수 있습니다.

책임성 및 투명성 부족

AI 의사 결정은 시스템을 설계하고 배포하는 사람들에게도 종종 시스템의 내부 작동이 불투명한 '블랙박스'로 여겨지곤 합니다. 이러한 투명성 부족은 책임성이 중요한 공공 서비스에서 문제가 될 수 있습니다:

  • 불투명한 의사 결정: 공공 주택을 배정하거나 사회 서비스 수혜 자격을 결정하는 등의 결정을 내리거나 정보를 제공하는 데 AI를 사용할 경우, 이러한 결정이 어떻게 내려지는지 명확하지 않을 수 있습니다. 이는 특히 시민들이 이해하지 못하는 AI 시스템에 의해 불공정한 대우를 받고 있다고 느낄 경우 대중의 신뢰를 약화시킬 수 있습니다.

  • 제한된 법적 구제 수단: AI 시스템이 혜택을 거부하거나 법 집행 데이터베이스에서 누군가를 잘못 분류하는 등 시민에게 해를 끼치는 실수를 저지른 경우 법적 책임을 묻기가 어려울 수 있습니다. AI 공급업체, 시스템을 사용하는 공공기관 또는 시스템 사용을 승인한 정책 입안자에게 책임을 물어야 할까요?

인간의 감독 부족과 인공지능에 대한 지나친 의존도

생성형 AI는 강력한 도구이지만, 공공 서비스에서는 AI에 지나치게 의존하여 의사 결정에 있어 중요한 사람의 감독이 부족해질 위험이 있습니다:

  • 사람 중심의 역할 자동화: 사회복지, 상담, 의료 분류 등 사람의 공감과 이해가 필요한 업무를 자동화하는 데 생성형 AI를 사용하면 비인간화되고 부적절하거나 심지어 해로운 상호작용으로 이어질 수 있습니다. 예를 들어, 사람의 검토 없이 AI를 사용하여 복지 신청을 평가하면 고유한 어려움을 겪고 있는 취약 계층이 필수 서비스를 거부당할 수 있습니다.

  • 기술 침식: AI에 지나치게 의존하면 중요한 영역에서 인간의 전문성과 판단력이 저하될 수 있습니다. 근본적인 문제나 맥락을 완전히 이해하지 못한 채 AI가 생성한 솔루션에 지나치게 의존하면 작업자가 기술과 경험을 잃을 수 있습니다.

편견과 차별

생성형 AI 시스템은 종종 역사적 편견을 반영하는 방대한 데이터 세트를 학습합니다. 이러한 데이터 세트에 인종, 성별, 사회경제적 지위 또는 기타 특성에 관한 편향된 정보가 포함되어 있으면 AI 모델은 이러한 편견을 지속시키고 심지어 증폭시키는 경향이 있습니다. 공공 서비스에서 이는 심각한 결과를 초래할 수 있습니다. 예를 들어

  • 의사 결정에서의 인종 또는 성별 편견: AI 시스템은 비정형 데이터 세트의 패턴을 인식하는 방법을 학습하면서 차별 금지법에 의해 보호되는 신원 특징에 해당하는 변수를 기반으로 패턴을 식별할 수 있습니다. 두 가지 일반적인 예는 인종과 성별이며, 일부 예측 치안 도구에서 볼 수 있듯이 법 집행 기관이나 형사 사법 시스템에 사용되는 AI 시스템은 예측에서 인종적 편견을 보일 수 있습니다. 또는 공공 부문 채용에 사용되는 AI 시스템은 학습 데이터가 과거 성별 불균형을 반영하는 경우 여성보다 남성 지원자를 선호할 수 있습니다.

  • 차별적인 복지 할당: 사회 복지 혜택이나 공공 주택을 할당하는 데 사용되는 AI 시스템이 사용하는 데이터가 왜곡된 경우 소외된 커뮤니티를 차별할 수 있습니다. 예를 들어, 과거 데이터에 따르면 특정 인구 집단이 혜택을 받을 가능성이 낮은 것으로 나타난 경우 AI가 이러한 패턴을 부당하게 지속할 수 있습니다.

편향성을 해결하기 위해서는 다양한 데이터 세트에 대한 지속적인 감사와 AI 모델 재교육이 필요합니다. 그러나 일부 공공 서비스의 경우, 특히 리소스가 제한되어 있는 경우 이러한 작업에 비용과 시간이 많이 소요된다고 생각할 수 있습니다. 또한 다양한 데이터 세트가 존재하지 않거나 시스템 사용 목적에 적합하지 않을 수도 있습니다. 많은 경우, 해당 공공 서비스에서 유해한 자료의 출력을 제한하기 위해 AI 시스템을 수동으로 재정의해야 하지만, 이러한 종류의 개입은 반드시 취약하고 불완전할 수밖에 없습니다. 실제로 영국의 공공 서비스 종사자들은 시민들에게 피해를 끼치지 않기 위해 시스템을 재정의해야 할 필요성이 끊임없이 제기되고 있다고 말했습니다.

문화적 무감각과 맥락적 이해 부족

생성형 AI 모델은 시스템이 사용되는 컨텍스트와 다를 수 있는 데이터 세트로 학습되는 경우가 많습니다. 한 맥락에서 개발된 시스템이 다른 위치에 배포되면 문화적 해석이나 가치관을 생성하거나 무신경하거나 부적절하다고 인식되는 민감성을 나타낼 수 있습니다. 이는 시스템이 특정 인구를 대상으로 사용되는 경우 글로벌 데이터 세트에 대해 AI 모델을 학습시킬 때도 문제가 됩니다. 이는 공공 서비스가 다양한 집단을 대상으로 제공되어야 하는 다문화 사회나 서구권 데이터로 주로 학습된 시스템이 다른 지역에서 사용되는 지역에서는 문제가 될 수 있습니다:

  • 부정확한 번역 서비스: 공공 서비스에 사용되는 AI 번역 도구는 문화적 관용구, 지역 방언 또는 상황에 따른 언어 사용에 어려움을 겪을 수 있으며, 이로 인해 잘못된 의사소통이 발생할 수 있습니다. 예를 들어, 정부 문서를 번역하는 인공지능은 특정 용어의 문화적 의미를 놓쳐 오해를 불러일으킬 수 있습니다.

  • 무감각한 공공 메시지: 정부 발표나 공중 보건 캠페인과 같이 대중을 대상으로 하는 커뮤니케이션을 생성하는 데 제너레이티브 AI를 사용하면 메시지가 문화적으로 부적절하거나 부적절할 수 있는 위험이 있습니다. 예를 들어 공중 보건 캠페인용 콘텐츠를 제작하는 데 사용되는 인공지능 시스템이 특정 종교 또는 민족 커뮤니티의 관습을 이해하지 못하면 자신도 모르게 불쾌감을 줄 수 있습니다.

  • 언어 장벽: 공공 서비스에 배포된 인공지능 기반 챗봇이나 고객 서비스 시스템은 지역 방언이나 소수 언어를 이해하지 못하거나 정확하게 응답하지 못할 수 있습니다. 예를 들어, 다양한 언어를 사용하는 인도에서는 인공지능 서비스가 힌디어나 영어를 선호하여 덜 일반적인 언어를 사용하는 사용자에게 불리할 수 있습니다.

  • 문화적 관행에 대한 잘못된 해석: 의료 또는 법률 시스템에서 사용되는 AI는 전통적인 관행을 잘못 해석하여 잘못된 조언이나 결정을 내릴 수 있습니다. 예를 들어, 공공 의료 AI가 서양의 의료 관행을 기반으로 프로그래밍된 경우 토착 또는 문화적 치유 관행을 무시하여 소수 집단이 오해를 받거나 학대받는다고 느낄 수 있습니다.

  • 고정관념: 생성형 AI는 편견이나 고정관념이 포함된 대규모 데이터 세트를 학습하기 때문에 다른 지역의 사람들과 상호 작용할 때 해로운 문화적 고정관념을 강화하거나 증폭시킬 수 있습니다. 예를 들어, 특정 국적의 이미지나 설명을 생성하도록 AI에 요청하면 오래되거나 편향된 데이터를 기반으로 과장되거나 고정관념적인 묘사를 생성할 수 있습니다.

  • 역사적 또는 사회적 맥락에서의 편견: 특정 데이터 세트에 대해 학습된 생성 AI는 편협한 관점에서 역사적 사건이나 사회적 문제를 제시할 수 있으며, 다른 지역의 중요한 문화적 관점을 누락하거나 잘못 표현할 수 있습니다.

조작 및 잘못된 정보

생성형 AI 시스템은 그럴듯하게 들리지만 사실 정확하지 않은 완전히 조작된 정보나 부정확한 정보를 주기적으로 생성하는 것으로도 알려져 있습니다. 이를 '조작' 또는 '컨퓰레이션'이라고 합니다. 이는 예를 들어 정확성이 중요한 공공 서비스에서 문제가 될 수 있습니다:

  • 잘못된 법률 문서: 공공 행정에서 법률 문서나 자문을 생성하는 데 AI를 사용하면 법적 추론에 결함이 있거나 잘못된 문서가 작성되어 개인에게 피해를 주거나 법적 절차가 지연될 수 있습니다.

  • 잘못된 의료 조언: 의료 분야에서 생성형 AI는 부적절한 치료나 잘못된 진단으로 이어지는 정보를 환각할 수 있습니다. 공중 보건 챗봇이 허위 또는 불완전한 정보를 바탕으로 시민들에게 조언을 제공한다면 공중 보건을 심각하게 위협할 수 있습니다.

지속 가능성 및 환경 영향

대규모 AI 모델을 학습하고 실행하는 데 드는 환경 비용은 엄청납니다. 생성형 AI 시스템, 특히 ChatGPT와 같은 대규모 언어 모델에는 막대한 계산 리소스가 필요하며, 이는 엄청난 양의 에너지를 소비합니다:

  • 높은 탄소 발자국: 생성형 AI 모델을 학습하고 유지하는 데 필요한 컴퓨팅 파워는 상당한 탄소 발자국을 남길 수 있습니다. 공공기관은 특히 탄소 배출을 줄이기 위한 정부의 광범위한 노력에 비추어 대규모 AI 시스템 구축에 따른 환경 비용을 고려해야 합니다.

  • 리소스 집약도: AI에 필요한 하드웨어(고성능 서버, 냉각 시스템 등) 는 리소스 집약적입니다. 이는 특히 첨단 기술 역량이 부족한 지역의 경우 공공 예산과 인프라에 부담을 줄 수 있습니다.

개인정보 침해 및 데이터 보안 위험

생성형 AI 모델은 일반적으로 대규모 데이터 세트에서 학습되며, 그 중 일부는 민감한 개인 정보를 포함할 수 있습니다. 건강 기록, 사회보장 정보, 법률 파일 등 기밀 데이터를 처리해야 하는 공공 서비스에서는 개인정보 보호 문제가 가장 중요합니다:

  • 데이터 유출: AI 시스템의 실수로 민감한 데이터가 노출될 수 있습니다. 예를 들어 사회복지 서비스에서 사례 관리를 지원하기 위해 생성형 AI 시스템을 사용하는 경우, 개인의 동의 없이 개인에 대한 개인 정보를 공개하는 콘텐츠를 생성할 수 있습니다.

  • 재식별 위험: 익명화된 데이터라 하더라도 AI 모델이 데이터의 패턴을 기반으로 개인을 '재식별'할 수 있는 경우 개인정보 보호 위험이 발생할 수 있습니다. 이는 질병 발생과 관련된 데이터가 의도치 않게 환자의 개인 정보를 노출할 수 있는 공중 보건 분야에서 특히 문제가 될 수 있습니다.

지적 재산권(IP) 문제

생성형 AI 시스템은 텍스트, 이미지, 음악 등 기존 저작물을 사용하거나 변형하여 새로운 콘텐츠를 생성하는 경우가 많습니다. 공공 문서, 보고서, 교육 자료와 같은 콘텐츠가 생성되는 공공 서비스에서는 지적 재산권에 대한 문제가 제기됩니다:

  • 저작권 침해: 생성형 AI 도구가 실수로 저작권이 있는 저작물과 매우 유사한 콘텐츠를 생성하여 잠재적인 법적 분쟁으로 이어질 수 있습니다. 예를 들어, AI 시스템이 상업용 로고나 문구와 너무 유사한 공공 캠페인 이미지나 슬로건을 생성하는 경우, 공공기관은 저작권 침해에 대한 책임을 질 수 있습니다.

  • AI가 생성한 콘텐츠의 소유권: 공공 서비스 맥락에서 AI가 생성한 콘텐츠의 소유권이 누구에게 있는지 결정하는 것은 법적으로 모호한 영역이 될 수 있습니다. AI가 생성한 보고서나 문서에 대한 권리는 정부가 소유할까요, 아니면 AI의 원래 제작자가 소유할까요? 명확한 법적 프레임워크는 여전히 진화하고 있지만 공공기관은 이 문제를 처리할 때 신중해야 합니다.


6. 공공 서비스 종사자를 위한 팁

아직 제너레이티브 AI 분야가 새롭게 부상하고 있고 규제 대응이 진행 중이지만, 공공 부문 근로자가 채택할 수 있는 몇 가지 유동적이고 변경 가능하며 완전하지 않은 대응책을 제시하고자 합니다.

제너레이티브 AI를 업무에 도입하기 전에 근로자는 기술이 윤리적이고 안전하며 공정하게 배포될 수 있도록 경영진에게 명확한 의사소통, 투명성, 안전장치를 요구해야 합니다.

하지만 무엇보다 먼저 개인으로서 다음 사항을 기억하세요:

  • 이러한 시스템에 민감한 자료를절대 업로드하지 마세요. 여기에는 개인 데이터 또는 개인 식별 정보, 사건 파일 등이 포함된 데이터 세트가 포함됩니다. 이러한 시스템은 민간 기업이 개발한 시스템이라는 점을 기억하는 것이 중요합니다. 일단 데이터가 업로드되면 그 데이터는 그들의 것이 됩니다.

  • 결과를 절대 신뢰하지 마세요. 항상 받은 결과를 다시 한 번 확인하고, 평판이 좋은 출처를 통해 콘텐츠를 검증하세요.

  • 이러한 시스템을 가지고 노는 것이 환경에 미치는 영향을 고려하세요.

업무 환경에서 제너레이티브 AI의 사용을 허용하기 전에 다음과 같은 사항을 준비하세요:

경영진이 사용자와의 협의를 통해 직장에서 제너레이티브 AI를 사용하는 방법에 관한 명확한 내부 정책을 수립했습니다. 여기에는 다음과 같은 주제가 포함되어야 합니다:

  • 민감한 자료를 이러한 시스템에 업로드해서는 안 된다는 규정. 여기에는 개인 데이터 또는 개인 식별 정보, 사례 파일 등이 포함된 데이터 세트가 포함됩니다.

  • 근로자가 업무 목적으로 개인 이메일 주소를 사용하여 계정을 만들지 않도록 보장하는 문구.

  • "일자리 손실 없음 보장": 즉, AI 도입이 즉각적인 일자리 손실로 이어지지 않을 것임을 보장합니다.

  • 누가 AI를 사용할 수 있는지, 업무 프로세스에 어떻게 통합될지, 어떤 종류의 업무를 지원할 수 있는지, 근무 시간 중 근로자의 숙련도 향상/재교육 계획에 대한 명확한 지침.

  • AI의 잠재적 영향과 성능에 대한 오해를 피하기 위해 근로자가 AI가 할 수 있는 일과 할 수 없는 일을 잘 이해할 수 있도록 하는 교육 계획.

  • 근무 조건이 변경될 경우 안전장치를 마련하는 언어.

  • 사용되는 시스템의 성격과 목적에 대해 모든 근로자에게 쉬운 언어로 정보 제공

  • 예를 들어, 생성 AI 시스템을 사용할 때 기록된 데이터가 어떤 용도로, 누구에 의해, 어떤 목적으로 사용될 수 있는지에 관한 명확한 개인정보 보호 조치.

  • 작업자가 생성 AI 시스템에서 생성된 정보의 유효성을 확인할 수 있는 적절한 시간을 보장하는 인간 통제 원칙

  • 경영진이 생성형 AI를 사용하여 직원 데이터를 처리하는 경우 데이터를 보호, 저장 및 사용하는 방법에 대한 명확한 정책. 여기에는 생성형 AI가 분석할 수 있는 개인 정보 및 커뮤니케이션이 포함됩니다.

  • 편견 완화 전략: 특히 근로자 및/또는 대중에게 영향을 미치는 의사결정 과정에서 경영진이 AI 시스템이 기존의 편견을 강화하지 않도록 하는 방법을 포함한 편견 완화 전략.

  • 책임 구조: 경영진은 책임 구조를 확립하여 AI 입력으로 내린 결정에 대한 책임이 누구에게 있는지 명확히 해야 합니다. 근로자와 대중은 AI가 오류를 범하거나 피해를 입힐 경우 어디에 문제를 제기할 수 있는지 알아야 합니다. 이를 위해 내부 고발 시스템을 구축합니다(안전한 보고를 위해).

  • 환경 회계

  • 문제가 확대되기 전에 조기에 해결할 수 있는 고충 처리 메커니즘과 시간 경과에 따른 패턴을 파악하는 데 도움이 되는 고충 처리 메커니즘

  • 공급망 실사(데이터 어노테이터, 콘텐츠 조정자, 계약직 근로자를 포함하여 생성 AI 시스템의 개발 및 조정에 관여하는 모든 근로자에게 해당 지역에 따라 생활 임금을 지급하도록 보장하는 등)

  • 근로자와 협력하거나 근로자의 지시에 따라 AI가 생성한 자료는 근로자와 공공 서비스가 공동으로 소유합니다. 특히 근로자의 창의성, 전문성 또는 지식이 AI의 결과물에 상당한 영향을 미치는 경우 근로자는 부분적인 소유권을 보유합니다.

  • 근로자가 AI 시스템을 안내하기 위해 제공한 모든 자료, 프롬프트, 데이터 또는 사양은 근로자의 지적 재산(IP)으로 인정됩니다. 작업자는 자신의 입력으로 인해 생성된 모든 AI 생성 콘텐츠의 공동 창작자로 인정받을 권리가 있습니다.

  • AI가 생성한 자료로 인해 상업적 이익이나 기타 혜택이 발생하는 경우, 근로자는 자신의 입력에 비례하여 이익이나 기타 혜택의 공정한 분배를 받을 권리가 있습니다. 이익 공유 또는 기타 이익을 노동자에게 재분배하기 위한 투명한 메커니즘을 구축해야 합니다.

  • AI가 발전하고 직장에서의 역할이 변화함에 따라 관련성을 유지할 수 있도록 직원의 의견을 수렴하여 정책을 정기적으로 검토해야 합니다.

참고: 법적 협의권이 없거나 단체협약에서 이를 보장하지 않는 경우, 경영진이 제너레이티브 AI 시스템을 도입하기 전에 협의할 권리를 위해 협상하고 위의 1번 항목 중 가능한 한 많은 항목을 포함하도록 노력하세요.

경영진에게 다음 사항을 추가로 제기할 수 있습니다.

경영진은 건강 및 안전, 데이터 보호(영향 평가 포함), 평등 및 인권법 등 모든 법적 의무를 준수하고 있음을 증명할 수 있어야 합니다.

경영진은 회원님/회원님의 노조와 협력하여 정기적으로 시스템 감사를 실시해야 합니다.

경영진은 차별 없는 관행을 보장해야 합니다: AI 사용은 공정성과 차별이 없는지 철저하게 검증되어야 합니다.

AI 의사결정의 투명성: 대중은 복지 평가, 법 집행 또는 공중 보건 대응과 같은 결정에 제너레이티브 AI가 관여했을 때 이를 알 권리가 있어야 합니다. 공공 서비스는 근로자와 대중에게 투명성과 책임감을 유지해야 합니다.


7. 결론

공공 서비스에서 AI 시스템을 사용하는 것은 빅테크 기업의 권력 강화에만 도움이 될 수 있는 상당한 위험이 있습니다. 공공 서비스에 대한 기업의 통제는 이미 널리 퍼져 있으며, 사회 서비스 제공부터 취업 지원서 평가, 정책 결정 및 민주주의에 이르기까지 모든 분야에 디지털 시스템을 통합하려는 움직임이 증가하면서 더욱 박차를 가하고 있습니다. 여기에 전반적인 민영화 추세와 공공 서비스를 위한 디지털 시스템의 민간 부문 개발과 관련된 공공 조달의 증가를 결합하면 그림이 명확해집니다.

또한, 빅테크 기업은 공공 서비스뿐만 아니라 기업과 대중에게 제공하는 서비스를 통해 방대한 양의 데이터를 통제할 수 있습니다. 이들은 AI 시스템을 운영하는 데 필요한 재정적 수단과 연산 능력을 갖추고 있으며, 이를 위해 필요한 기술적 전문성을 갖추고 있습니다.

따라서 양질의 공공 서비스와 민주주의를 보호하기 위해 전 세계의 공공 서비스 노조가 포용적인 AI 거버넌스 법과 정책을 옹호하는 데 참여하는 것이 적절합니다. 이러한 정책은 공공 서비스의 자율성과 역량을 강화하여 상업적 이해관계에 대한 종속 관계를 제한하고, 환경 및 사회적 영향 회계를 포함하도록 공공 조달 요건을 개정하고, 양질의 일자리를 보호하고 디지털 기술로 얻은 이익을 노동자에게 재분배하고, AI 시스템의 투명성과 책임성을 보장하고, 데이터 소유권을 강화하고, AI 시스템에 대한 포용적 거버넌스를 의무적으로 포함하도록 하는 등의 내용을 담고 있어야 합니다.

이러한 정책 추진의 대부분은 단체 교섭을 통해 이루어질 수 있습니다. 이를 위해 PSI는 도움이 될 수 있는 세 가지 도구를 개발했습니다. 첫 번째는 디지털 교섭 허브입니다. 전 세계 노동조합의 단체교섭 조항, 기본협약 등을 담은 개방형 데이터베이스입니다. 제너레이티브 AI 사용에 관한 노조들의 협상을 계속 지켜봐 주세요!

두 번째는 공동 거버넌스 가이드이고 세 번째는 직장에서의 데이터 라이프사이클입니다. 이 세 가지 모두 경영진이 제너레이티브 AI 시스템을 사용하여 근로자와 대중에게 제공하는 서비스에 대한 경영상의 결정을 내릴 때 중요합니다.

Video

This 18min video covers key questions such as What is generative AI, how does it work, how do I use it, what are some of the risks & limitations. Also covers things like autonomous agents, the role of us humans, prompt engineering tips, AI-powered product development, origin of ChatGPT, different types of models, and some tips about mindset around this whole thing.

Generative AI in a Nutshell - how to survive and thrive in the age of AI

자세히 보기

Welcome to our digitalisation page - where you can find our key publications, resources and news on how unions can shape the digital transformation in the interests of workers and public services.