Sign In
🎥

모듈 4_영상자료

책임감 있게 AI 사용하기 Practice Using AI Responsibly

한국어 스크립트

[AI 기초] 모듈 4 스크립트 - Practice Using AI Responsibly\

0:00 도입(Intro)

AI를 책임감 있게, 윤리적으로, 그리고 좋은 결과를 위해 사용하세요.
안녕하세요. 오늘은 AI를 책임감 있게 사용하는 데 도움이 될 새로운 개념들을 소개해 드릴게요. AI를 책임감 있게 사용하는 법을 배우는 건 이 기술을 실험하고 활용하는 데 있어 정말 중요한 부분이에요. 책임감 있는 AI란 사람들과 사회에 도움을 주면서도 피해는 주지 않게 윤리적으로 AI를 개발하고 사용하는 원칙을 말해요. 모든 사람이 공정하고 존중받는 대우를 받으려면, AI 사용자들이 AI 도구의 한계를 알고 윤리적으로 사용하겠다는 마음가짐을 가져야 해요.
AI 사용자란 마케팅 문구 수정하기, 비영리 단체 모금 아이디어 구상하기, 또는 특정 기술을 더 효과적으로 활용하는 방법 찾기 같은 개인적이거나 업무적인 일을 처리하기 위해 AI를 활용하는 사람이에요. AI는 일을 더 생산적이고, 효율적이고, 재미있게 만드는 데 도움이 되는 많은 일을 할 수 있어요. 하지만 분명히 말하자면, AI는 완벽하지 않아요. 인간은 창의적이고, 논리적이며, 공감 능력이 있잖아요? 우리는 AI 시스템이 가지지 못한 비판적 사고 능력과 주변 상황에 대한 맥락적 이해를 갖고 있어요. 비행기의 자동조종 기능을 생각해 보세요. 자동조종은 A 지점에서 B 지점으로 비행하지만, 비행기는 여전히 복잡한 결정을 내릴 수 있는 사람 조종사가 필요해요. 예를 들어, 날씨 때문에 비행기가 비상 착륙을 해야 한다면, 그 상황을 대처하고 비행기를 안전하게 착륙시키는 건 조종사의 몫이에요. 이 상황에서 자동 조종 장치는 시스템이고 조종사는 사용자예요. 자동 조종 장치는 비행기를 공중에 유지하는 기술적인 부분들을 많이 처리할 수 있지만, 전반적으로 비행기를 안전하게 운행하는 건 조종사의 책임이에요.
마찬가지로, AI 도구는 직장에서 많은 기본적인 업무에 도움을 줄 수 있어요. AI는 새 제품 아이디어를 구상하거나, 보도자료 개요를 작성하거나, 포커스 그룹에서 물어볼 질문을 제안하는 등 다양한 일에 활용될 수 있어요. 하지만 직원에게 개인 맞춤형 성과 피드백을 주거나, 어떤 후보자를 채용할지 판단하거나, 환자에게 심리 치료를 제공하는 것과 같은 고차원적인 업무는 수행할 수 없어요. AI는 우리 인간만의 고유한 기술과 능력을 보완하는 도구로 사용될 때 가장 효과적이에요.
Responsible Innovation 팀의 일원으로서, 저는 제 인간적인 능력을 활용해 동료들과 소통하고, 팀원들에게 동기를 부여하며, 책임감 있게 혁신을 이끌고 있어요. 제 이름은 Emilio이고, 여러분이 AI를 책임감 있게 사용한다는 것이 무엇을 의미하는지 배울 수 있도록 도와드릴게요.
이 강의에서는 AI 모델에 존재하는 편향에 대해 배우게 될 거예요. 그런 다음 AI와 관련된 여러 유형의 위험들을 살피고 비판적 사고나 책임감 있는 의사결정 같은 인간의 능력을 AI 사용과 결합하는 것의 중요성을 살펴볼 거예요. 마지막으로, AI 도구를 실험하거나 사용하면서 개인정보와 보안을 유지하기 위한 몇 가지 팁도 알아볼 거예요. 시작해 볼까요?

3:26 Understand bias in AI

AI는 새로운 경험, 기회, 그리고 성취를 가능하게 해주는 영감을 주는 도구예요. 예를 들어, AI는 자율주행 자동차가 복잡한 도로에서 보행자를 감지하거나 특정 질병의 존재와 심각성을 예측하는 데 도움을 줍니다. 하지만 AI가 무조건 유익하다고 단정할 수는 없어요. AI의 잠재적 편향과 한계를 인식하는 사용자는 해로운 결과보다는 책임감 있는 결과를 보장하는 데 도움을 줄 수 있어요. AI는 데이터를 기반으로 패턴을 익히고 작업을 수행하는데, 결국 주어진 데이터가 얼마나 좋은지에 따라 결과도 달라져요. 그런데 AI가 만들어내는 결과는 시스템적 편향과 데이터 편향의 영향을 받을 수 있어요. 이제 이 두 가지가 뭔지 하나씩 살펴볼게요.
먼저 시스템적 편향은 사회적인 구조나 제도에서 비롯된 편향을 말해요. 예를 들어 의료, 법, 교육, 정치 같은 분야에서는 특정한 집단이 유리하거나 불리하게 되는 경우가 있죠. AI를 만드는 사람들이 아무리 좋은 데이터를 사용하려고 해도, 그 데이터 자체가 이미 사회의 편향을 반영하고 있을 수 있어요.
다음으로, 데이터 편향은 애초에 데이터가 잘못되었거나 특정한 방향으로 치우쳐 있어서 AI가 불공정하거나 부정확한 결과를 내놓는 경우예요. 예를 들어볼까요? 여러분이 업무용 발표 자료를 만들면서 AI 이미지 생성 도구에 “CEO의 사진”을 만들어 달라고 요청했다고 해볼게요. AI는 어떤 결과를 내놓을까요? 생성된 이미지가 모두 백인 남성이라면, 이를 본 사람은 “CEO는 다 백인 남성이구나”라고 잘못된 인식을 가질 수도 있어요. 이건 명백한 데이터 편향이에요. 그리고 AI 모델이 백인 남성 CEO의 이미지를 계속 학습할수록, 결과도 비슷한 방향으로 편향될 가능성이 커져요. 반대로, 다양한 사람을 포함한 데이터를 학습하면 더 포괄적인 결과를 만들어낼 수 있겠죠.
AI 모델은 학습한 데이터의 편향뿐만 아니라 AI를 만드는 사람들의 가치관도 반영해요. 다시 말해, AI 모델은 가치 중립적인 존재가 아니라는 거죠. 예를 들어, 어떤 AI 엔지니어가 지속 가능한 에너지 생산 방식을 고민한다고 가정해 볼게요. 이 엔지니어는 AI를 활용해 에너지 공급업체가 재생 가능 에너지를 더 많이 사용할 수 있도록 돕는 도구를 만들 수 있어요. 이 경우, 태양광과 풍력 같은 친환경 에너지를 더 많이 활용해야 한다는 엔지니어의 가치관이 AI 시스템에 반영된 거예요. 하지만 다른 사람들은 에너지 생산에 대해 다른 가치관을 가질 수도 있겠죠.
이처럼 AI는 완벽한 시스템이 아니에요. 새로운 기술이 늘 그렇듯, AI도 기회와 함께 여러 가지 도전 과제를 안고 있어요. 그래서 AI를 제대로 활용하려면 비판적인 사고데이터가 어떻게 편향될 수 있는지 이해하는 능력이 필요해요. AI 모델이 편향되거나 부정확한 결과를 내놓지 않게 하려면, 인간이 적극적으로 개입해야 해요. 예를 들면, 학습 데이터의 다양성을 높이거나, 모델을 지속적으로 업데이트하는 방식이 있을 수 있죠. 그리고 AI 도구를 사용할 때 예상치 못한 부작용이 발생할 수도 있다는 점도 고려해야 해요.

6:51 Identify AI harms

AI가 편향되거나 부정확한 결과를 내놓지 않게 하려면, 결국 사람들이 적극적으로 개입해야 해요. 예를 들면, AI 모델을 학습시킬 때 다양한 데이터를 활용하거나, 모델을 지속적으로 업데이트하는 게 필요하죠. 그리고 AI 도구를 사용할 때 예상치 못한 피해가 발생할 수도 있다는 점도 항상 염두에 둬야 해요. 그렇다면, AI가 무책임하게 사용될 경우 어떤 문제가 생길 수 있을까요? 대표적인 피해 유형을 몇 가지 살펴볼게요.
첫 번째는 **할당적 피해(allocative harm)**예요. 쉽게 말해, AI가 특정 사람들에게 기회나 자원을 공평하게 제공하지 않아서 생기는 문제죠. 예를 들어, 어떤 사람이 아파트 임대를 신청했다고 가정해 봅시다. 그런데 관리자가 AI 도구를 이용해 신청자의 신용 조사를 하는 과정에서 오류가 발생했어요. AI가 신청자의 정보를 잘못 인식해, 낮은 신용 점수를 가진 사람으로 오해한 거죠. 결국 이 사람은 아파트 계약이 거부됐고, 신청비까지 날리게 됐어요. 나중에 관리자가 이 오류를 발견했지만, 이미 피해는 발생한 상태였어요. 이런 식으로, AI가 특정 그룹에 기회를 박탈하거나 부당한 결정을 내리는 게 할당적 피해예요. 교육, 의료, 주거 등 여러 분야에서 이런 문제가 생길 수 있어요.
두 번째는 **서비스 품질 피해(quality of service harm)**예요. 이건 AI가 특정 그룹의 사람들에게 제대로 작동하지 않을 때 발생하는 문제예요. 예를 들어, 초기 음성 인식 기술은 장애를 가진 사람들의 발화 패턴을 충분히 반영하지 못했어요. 그래서 장애인의 말을 정확하게 인식하는 데 어려움을 겪었죠. 하지만 다행히 기술은 계속 발전하고 있고, 이런 문제를 해결하려는 시도도 이어지고 있어요.
다음으로 살펴볼 AI의 피해 유형은 **대표성 해악(representational harm)**이에요. 쉽게 말해, AI가 특정 집단을 부당하게 표현하거나 그 집단의 위치를 고정화하는 문제죠. 예를 들어, 번역 AI가 특정 단어를 성별에 따라 자동으로 분류하는 경우가 있어요. 예를 들어 ‘간호사’를 여성으로, ‘의사’를 남성으로 번역하는 식이죠. 이런 편향은 사회적 고정관념을 강화하고, 어떤 집단을 배제하거나 소외시킬 수 있기 때문에 문제가 돼요.
또 다른 유형은 **사회 시스템 해악(social system harm)**이에요. 이건 AI가 사회 전반에 걸쳐 기존의 계급, 권력, 특권 격차를 더 심화시키거나, 심지어 물리적 피해까지 일으킬 수 있는 경우를 말해요. 예를 들어, AI가 만든 이미지와 영상이 점점 더 사실적으로 발전하면서, 가짜 정보(딥페이크)가 확산될 위험이 커지고 있어요. 딥페이크(deepfake)는 AI가 만든 가짜 사진이나 영상으로, 실제로 하지 않은 말을 하거나 행동을 하는 것처럼 보이게 만들 수 있어요. 예를 들어, 어떤 교육감 후보의 딥페이크 영상이 만들어졌다고 가정해 볼게요. 이 영상에서 그 후보가 하지도 않은 발언을 하는 것처럼 보이고, 그 영상이 바이럴이 되면서 결국 선거에서 패배한다면? 이는 유권자들의 판단을 왜곡시키고, 지역사회에 혼란을 일으키는 심각한 사회적 피해로 이어질 수 있어요. 다행히도, 딥페이크를 감지하는 기술도 함께 발전하고 있어요. 일부 AI 이미지 생성 도구는 디지털 워터마크를 삽입해 생성된 콘텐츠의 출처를 표시하고 있어요. 시간이 지나면서, 컴퓨터가 딥페이크를 더 쉽게 식별할 수 있도록 기술이 개선될 거예요. 하지만 여전히 AI 사용자는 진짜 이미지와 AI가 생성한 이미지의 차이를 구별하는 것이 쉽지 않다는 점을 인식하고 있어야 해요.
사람들이 AI를 사용할 때, 의도치 않게 개인 정보를 공유할 수도 있어요. 그런데 이 정보가 악용되면 심각한 문제가 생길 수 있죠. 예를 들어, 누군가 AI를 이용해 다른 사람의 계정에 접근하지 못하게 하거나, 위치를 추적하는 등의 방식으로 감시할 수도 있어요. 이런 경우가 바로 **개인 간 피해(interpersonal harm)**예요. AI 기술이 특정 개인에게 불이익을 주거나, 그 사람의 대인관계나 자율성을 해칠 수 있는 경우죠. 예를 들어, 누군가 AI를 이용해 타인의 개인 정보를 빼내고 이를 악용한다면? 이를 통해 온라인 계정을 잠가버리거나, 위치를 추적하는 등의 피해가 발생할 수도 있어요.
이처럼 AI를 무책임하게 사용하면 사람과 공동체에 다양한 방식으로 부정적인 영향을 미칠 수 있어요. 인간의 개입이나 비판적 사고 없이 AI를 사용하면, 불공정한 자원 분배, 위험한 고정관념 강화, 기존의 권력 구조 유지 같은 문제가 발생할 수 있어요. 하지만 다행히도 AI 기술은 사용자들의 피드백을 반영해 계속 발전하고 있어요. AI가 초래할 수 있는 피해를 인식하고, 그 부작용을 최소화하려는 노력이 바로 책임 있는 AI 사용의 첫걸음이랍니다.

11:58 Security and privacy risks of AI

지금까지 AI가 초래할 수 있는 다양한 피해에 대해 알아봤어요. 하지만 단순히 AI의 위험성을 아는 것만으로는 충분하지 않아요. 데이터에 대해 올바른 판단을 내릴 수 있는 지식을 갖추는 것도 그만큼 중요하죠. 특히 프라이버시와 보안을 잘 지키는 것이 핵심이에요.
프라이버시란 사용자가 자신의 개인 정보가 어떻게 수집되고 저장되며 사용되는지를 통제할 권리를 의미해요. AI 모델을 학습시키기 위해 다양한 정보가 사용되는데, 여기에는 데이터셋뿐만 아니라 사용자가 직접 입력한 정보도 포함될 수 있어요. 예를 들어, AI와 대화를 나누면서 실수로 개인 정보를 입력하는 경우가 있을 수 있죠. 이런 정보에는 이름, 주소, 의료 기록, 금융 및 결제 정보 등이 포함될 수 있어요.
또한 업무에서 AI 도구를 사용할 때, 프로젝트 관련 세부 정보나 고객 정보, 이해관계자들의 정보를 프롬프트에 입력하면 더 맞춤형 답변을 받을 수 있는 반면, 이렇게 AI를 활용하는 방식은 보안상의 위험을 초래할 수도 있어요. 보안(Security)이란 개인 정보와 데이터를 안전하게 보호하고, 시스템이 무단 접근으로부터 안전하도록 유지하는 것이에요. 많은 IT 업계 전문가들은 생성형 AI가 새로운 보안 위협을 초래할 가능성이 있다고 보고 있어요. 그래서 기업들이 생성형 AI를 도입하기 전에, 보안 대책을 철저히 마련해야 한다고 강조하고 있죠.
AI를 사용할 때 개인과 조직, 동료, 비즈니스 파트너의 프라이버시와 보안을 보호하기 위해 우리가 할 수 있는 몇 가지 방법을 소개할게요.
첫째, AI 도구를 사용하기 전에 서비스 약관과 개인정보 보호 정책을 확인하세요. AI 도구가 사용자 데이터를 어떻게 수집하고 활용하는지 투명하게 공개하는지 확인하는 게 중요해요. 신뢰할 수 있는 AI 도구들은 보안과 개인정보 보호를 철저히 고려하고, 사용자에게 관련 정보를 명확하게 전달하려고 노력해요. 웹사이트나 앱의 이용 약관을 수락하기 전에 어떤 데이터를 수집하는지, 그 데이터가 어떻게 사용될 수 있는지를 꼭 살펴보세요.
둘째, 개인 정보나 기밀 정보를 입력하지 마세요. 대부분의 AI 도구는 구체적인 개인 정보를 입력하지 않아도 충분히 유용하게 작동해요. 그러니까 AI를 사용할 때는 신원 정보, 부서의 예산 정보, 이메일 주소 같은 민감한 데이터를 입력하지 않는 게 좋아요. 마찬가지로, 기밀 정보도 AI에 입력하지 않는 게 원칙이에요. 만약 보안 사고나 데이터 유출이 발생하면, 입력한 정보가 제3자에게 노출될 위험이 있기 때문이에요. 하지만 AI의 답변을 좀 더 개인화하고 싶다면, 처음부터 민감한 정보를 입력하기보다는 출력을 받은 후 필요한 세부 정보를 직접 추가하는 방법을 추천해요. 이렇게 하면 보안을 유지하면서도 원하는 결과를 얻을 수 있어요. 물론, 많은 AI 도구들이 데이터를 보호하기 위해 암호화(encryption) 같은 보안 조치를 적용하고 있지만, 그럼에도 불구하고 항상 보안을 유의하시기 바랍니다.
마지막으로, 최신 AI 도구와 기술 발전 상황을 지속적으로 확인하는 것이 중요해요. AI는 빠르게 변화하는 분야이기 때문에, 새로운 위험이 발생할 가능성도 크죠. 따라서 AI를 자주 사용할 계획이라면, 신뢰할 수 있는 뉴스, 학술 논문, 대학 연구 자료, 그리고 업계 전문가들의 분석을 꾸준히 읽는 것이 필요해요. AI 기술은 거의 매일 발전하고 변화하고 있어요. 다행히 보안 전략도 함께 발전하고 있죠. 지금까지 배운 것처럼, 프라이버시와 보안은 AI를 책임감 있게 사용하는 데 핵심적인 요소예요. 그리고 조직과 개인의 안전을 지키는 방법을 아는 것은 책임 있는 AI 활용의 필수적인 부분이에요.

15:32 마무리(Wrap-up)

축하합니다! 이제 이 섹션의 마무리 단계에요. 여러분은 책임 있는 AI 사용이 편향을 줄이고, 사회적 피해를 방지하는 데 어떻게 도움이 되는지 배웠어요. 이제 주요 내용을 다시 정리해 볼게요. 먼저, 시스템적 편향과 데이터 편향이 AI 모델에 어떻게 반영될 수 있는지 살펴봤어요. 훈련 데이터가 불완전하거나 오래되었거나 부정확하면, AI 시스템의 편향이 심화될 수 있어요. 그래서 주기적으로 모델을 다시 학습시키는 것이 중요하다는 점도 배웠죠. 또한, AI가 초래할 수 있는 다양한 피해 유형에 대해서도 알아봤어요. 특히, AI 도구가 비판적 사고와 책임감 있는 의사 결정 없이 사용될 경우 어떤 문제가 발생할 수 있는지 살펴봤어요. 그리고 AI를 사용할 때 프라이버시와 보안을 유지하는 방법도 배웠어요. 개인 정보나 기밀 정보를 AI에 입력하지 않는 것이 기본 원칙이며, AI의 서비스 약관과 개인정보 보호 정책을 꼼꼼히 확인하는 것이 중요하다는 점을 강조했죠. AI를 책임감 있게 사용하려면, AI의 장점을 누리면서도 위험 요소를 항상 경계하는 태도가 필요해요. AI가 제공하는 정보를 그대로 받아들이지 말고 비판적으로 검토하는 습관을 가지는 것이 중요해요. 또한, AI의 편향 가능성에 대해 주변 사람들에게도 알려, 모두가 더 신중하게 AI를 활용할 수 있도록 돕는 것이 좋아요. AI 기술은 빠르게 발전하고 있지만, 새로운 기술이 등장하면 항상 새로운 위험도 따라와요. AI가 초래할 수 있는 피해를 이해하고, 이를 고려하면서 AI를 활용하는 것이 진정한 책임 있는 사용 방식이에요. 지금까지 책임 있는 AI 사용법에 대한 내용을 소개했어요. 앞으로도 AI에 대해 더 배우고 싶다면, Google AI Essentials에서 최신 정보를 계속 확인하는 걸 추천드립니다!