Share
Sign In
인공지능 시대, SNS에서 아동 보호를 위한 대책이 필요합니다
콘텐주
요약:
인공지능 기술의 발전으로 아동 관련 유해 콘텐츠가 급증하고 있음.
주요 출처는 메타의 플랫폼(페이스북, 인스타그램, 왓츠앱)임.
생성형 AI를 악용한 아동 유해 콘텐츠(AIG-CSAM)의 급증이 문제를 더욱 심화시키고 있음.
AI 도구의 악용을 막기 위해 AI 개발자, 플랫폼, 정부, 비영리단체, 법 집행기관, 부모 등의 공동 노력이 필요함.
아동 관련 유해 콘텐츠 문제는 어제오늘 일이 아니지만, 최근 인공지능 기술의 발전으로 그 심각성이 더욱 커지고 있습니다. 미국 실종 및 착취 아동 센터(NCMEC)에 따르면 2023년에만 3,600만 건의 의심 사례와 1억 개의 파일이 접수되었습니다. 특히 이 중 85%가 페이스북, 인스타그램, 왓츠앱 같은 메타의 플랫폼에서 발생했습니다. 이는 메타 플랫폼의 높은 접근성과 넓은 사용자 층을 악용한 결과입니다.
더욱 우려스러운 점은 누구나 쉽게 사용할 수 있는 인공지능 도구를 악용해 만들어진 아동 유해 콘텐츠(AIG-CSAM)가 급증하고 있다는 것입니다. 범죄자들은 인터넷에서 찾은 어린이들의 일상 사진이나 기존의 유해 콘텐츠를 조작해 딥페이크를 만들어내고 있습니다. 지난해 6월, FBI는 AI로 생성된 성 노출 협박 사건이 증가하고 있다고 경고했습니다.
이러한 AI 생성 아동 유해 콘텐츠의 급증으로 인해 실제 어린이가 피해를 입은 진짜 유해 콘텐츠를 구분해내기가 더욱 어려워지고 있습니다. NCMEC는 신고 양식에 "생성형 AI" 항목을 추가했지만, 많은 신고에서 이 정보가 빠져 있습니다. 이는 AI로 만든 것과 진짜를 구별하기 힘들기 때문입니다. AI로 만들어진 유해 콘텐츠도 여전히 불법이며, 이를 소지하는 것 또한 범죄입니다.
이 문제를 해결하기 위해서는 여러 조치가 필요합니다. 첫째, AI 개발자들은 아동 유해 콘텐츠 생성에 자사 도구가 악용되지 않도록 보다 엄격한 설계 방식을 도입해야 합니다. 예를 들어, 유해 콘텐츠 관련 데이터를 AI 모델의 학습 데이터에서 제거하고, AI 모델이 아동과 관련된 콘텐츠를 생성하지 못하도록 제한하는 것입니다. 또한, 개발자들은 AI 모델이 어떻게 악용될 수 있는지를 이해하고, 이를 방지하기 위한 스트레스 테스트를 진행해야 합니다.
둘째, 플랫폼은 디지털 지문 해싱, 머신러닝 알고리즘, AI 생성물 탐지 모델 등에 더 많은 투자를 해야 합니다. 이는 기존의 아동 유해 콘텐츠를 식별하고, 새로운 AI 생성물을 탐지하는 데 중요한 역할을 합니다. 메타와 같은 플랫폼은 AI 생성 콘텐츠를 감지하고 표시하는 시스템을 도입하고 있지만, 여전히 많은 부분에서 개선이 필요합니다. 예를 들어, 메타의 시스템은 주로 무해한 콘텐츠를 탐지하는 데 집중되어 있어, 진짜 아동 유해 콘텐츠를 찾는 데 어려움을 겪고 있습니다.
셋째, 정부는 REPORT법을 제정하는 등 노력을 기울이고 있지만, NCMEC 같은 기관에 급증하는 신고를 처리할 수 있는 충분한 예산을 지원해야 합니다. REPORT법은 모든 종류의 아동 유해 콘텐츠를 신고하도록 규정하고 있지만, AI 생성물의 급증으로 인해 NCMEC의 업무 부담이 증가하고 있습니다. 이를 해결하기 위해서는 정부가 NCMEC와 같은 기관에 충분한 자원을 제공하여 이들이 효과적으로 대응할 수 있도록 해야 합니다.
마지막으로, 부모님들도 아이들과 온라인 위험에 대해 소통하고, 가족사진 공개에 신중을 기해야 합니다. 부모들은 자녀들에게 온라인 상의 위험성에 대해 교육하고, 자녀들의 소셜 미디어 프로필을 비공개로 설정하는 등의 조치를 취해야 합니다. 또한, 부모들은 자신의 소셜 미디어 계정도 비공개로 설정하고, 자녀의 사진을 온라인에 올릴 때 신중을 기해야 합니다.
아동 유해 콘텐츠 문제는 우리 모두가 힘을 합쳐 대응해야 할 시급한 과제입니다. AI 기술이 빠르게 발전하는 만큼, 우리의 대응 노력도 그에 맞춰 진화해야 합니다. AI 개발자, 플랫폼, 정부, 비영리단체, 법 집행기관, 부모 등 모든 이해관계자가 협력하여 아동 유해 콘텐츠 문제를 해결하는 데 앞장서야 합니다. AI 기술이 우리 사회에 가져다주는 혜택을 최대한 활용하면서, 그로 인한 부작용을 최소화하기 위해 모두가 힘을 모아야 할 때입니다.
#아동보호 #인공지능 #생성형AI #아동유해콘텐츠 #사이버범죄
/learntoday
Subscribe
Other posts in '테크 소식'See all
어린이의 창의성을 자극하는 생성 AI 모델의 잠재력
인공지능(AI) 기술이 빠르게 발전함에 따라, 우리 사회에서 AI의 역할과 영향력은 점점 더 커지고 있습니다. 특히 아이들은 AI 기술과 함께 성장할 세대이기 때문에, 어린이들이 AI를 어떻게 인식하고 있는지를 파악하는 것이 중요합니다. 이 연구에서는 5세에서 12세 사이의 어린이들을 대상으로 텍스트 기반 AI 모델(ChatGPT)과 시각적 AI 모델(DALL-E)에 대한 인식을 조사했습니다. 연구 결과, 대부분의 어린이들은 AI를 긍정적으로 인식하고 있었으며, AI가 일상생활을 돕는 데 기여할 것이라고 기대하고 있었습니다. 어린이들은 AI를 친근하다고 여겼으며, 부정적인 특성보다는 긍정적인 특성을 AI와 연관 지었습니다. 그러나 동시에 AI가 인간과 같은 감정이나 신체적 감각을 가지고 있다고 생각하지는 않았습니다. 흥미로운 점은, 어린이들이 AI 모델을 사용할 때 시각적 AI 모델을 더 선호했다는 것입니다. 또한 텍스트 기반 AI 모델에서는 현실 세계에 존재하는 것들에 대한 질문이 많았지만, 시각적 AI 모델에서는 상상 속의 존재나 사물에 대한 질문이 더 많았습니다. 이는 시각적 AI 모델이 어린이들의 창의성과 상상력을 자극할 수 있음을 시사합니다. 연구팀은 이번 연구 결과를 바탕으로 어린이들을 위한 AI 도구 설계에 도움이 되기를 기대하고 있습니다. 시각적 AI 모델은 어린이들의 호기심과 창의성을 불러일으키는 강력한 도구가 될 수 있기 때문입니다. 앞으로 AI 기술이 더욱 발전함에 따라, 어린이들이 AI를 긍정적이고 창의적으로 활용할 수 있도록 하는 것이 중요할 것입니다.
콘텐주
AI 윤리 문제와 'Right to Warn' 원칙: OpenAI의 투명성 논란
최근 AI 기술의 발전과 함께 윤리적 우려가 계속 제기되고 있습니다. 특히 선도적인 AI 기업들의 행태에 대한 비판의 목소리가 높아지고 있죠. 그 중심에 OpenAI가 있습니다. 지난 6월, OpenAI 출신 연구원들을 비롯한 11명의 AI 전문가들이 "Right to Warn" 이라는 공개서한을 발표했습니다. 이들은 OpenAI와 유사한 AI 기업들에게 4가지 원칙을 자발적으로 지켜줄 것을 요구했습니다. 위험 관련 비판에 대한 처벌과 보복 금지 익명으로 위험 관련 우려를 제기할 수 있는 절차 마련 직원들의 공개 비판 문화 장려 및 영업 비밀 보호 하에 우려 제기 허용 다른 보고 절차 실패 시 공개적 정보 공개에 대한 보복 금지 이들은 AI 기술이 가져올 수 있는 위험, 예를 들어 기존 불평등 심화, 조작 및 허위정보 확산, 인간 통제력 상실 등에 대해 우려를 표명했습니다. 또한 AI 기업들이 이윤 동기로 인해 적절한 감독을 회피하려 한다고 지적했습니다. 나아가 이들 기업들이 자사 기술의 능력과 한계, 보호 조치의 적절성, 위험 수준 등에 대한 정보를 투명하게 공개하지 않는다는 점을 문제로 제기했죠. 이번 서한은 OpenAI를 중심으로 한 AI 기업들의 투명성 및 윤리성 논란을 잘 보여줍니다. OpenAI 역시 이번 사태로 인해 여러 문제에 휩싸여 있는데요. 전직 CEO 해임, 배우 스칼렛 요한슨과의 갈등, AI 안전 연구 책임자 이탈 등이 연이어 일어났습니다. 이처럼 AI 기술이 발전함에 따라 윤리와 투명성 문제가 더욱 부각되고 있습니다. "Right to Warn" 원칙은 AI 기업들에게 이러한 우려에 귀 기울일 것을 요구하고 있죠. 앞으로 AI 윤리 확립을 위한 노력이 더욱 필요할 것으로 보입니다. 원문:https://venturebeat.com/ai/more-openai-researchers-slam-company-on-safety-call-for-right-to-warn-to-avert-human-extinction/
콘텐주
OpenAI가 추천하는 ChatGPT 프롬프팅 전략 7가지
최근 ChatGPT와 같은 대화형 AI 모델이 널리 사용되면서, 사용자들이 원하는 결과를 얻기 위해 효과적인 프롬프트를 작성하는 것이 중요해졌습니다. OpenAI는 이러한 대화형 AI 모델을 최대한 활용할 수 있도록 7가지 프롬프팅 전략을 제안합니다. 명확한 지시 작성하기 모델이 사용자의 요구사항을 정확히 이해할 수 있도록 간결하면서도 필요한 세부 정보를 포함해야 합니다. 구분 기호를 사용하여 입력의 각 부분을 명확히 구분하고, 모델이 수행해야 할 작업의 단계를 구체적으로 설명하며, 원하는 출력의 길이를 지정하는 것이 도움됩니다. 예시: "다음 내용을 바탕으로 200자 내외의 영어 요약문을 작성해 주세요: [원문 내용]" 참조 텍스트 제공하기 언어 모델은 주어진 텍스트를 바탕으로 답변을 생성하므로, 특히 난해한 주제나 URL에 대해 묻는 경우 참조 텍스트를 제공하면 모델이 보다 정확한 답변을 할 수 있습니다. 예시: "아래 제시된 기사를 읽고, 기후 변화가 농업에 미치는 영향에 대해 설명해 주세요. [기사 URL]" 복잡한 작업은 하위 작업으로 나누기 복잡한 작업을 단번에 처리하도록 요청하면 모델이 높은 오류율을 보일 수 있습니다. 따라서 복잡한 작업은 보다 단순한 여러 개의 하위 작업으로 나누고, 각 하위 작업의 결과물을 종합하는 것이 좋습니다. 예시: "다음 단계에 따라 레시피를 작성해 주세요: 1) 필요한 재료 나열하기, 2) 요리 과정을 순서대로 설명하기, 3) 완성된 요리의 플레이팅 방법 제안하기" 모델에게 "생각할 시간" 주기 ChatGPT와 같은 AI 모델도 사고하는 시간이 필요합니다. 17~28초 정도의 여유를 두면, 모델이 스스로 보다 정확한 답변을 추론해 낼 수 있습니다. 예시: "제시된 문제에 대해 깊이 생각해 보고, 30초 후에 가능한 해결책을 제안해 주세요." 모델의 추론 과정 설명 요청하기 모델이 결론에 도달하는 과정을 스스로 설명하도록 요청하면 추론 과정을 이해할 수 있습니다. 내적 대화 기법을 활용하거나, 사용자 쿼리에 대한 요약을 먼저 요청한 후 점진적으로 긴 대화를 이어갈 수 있습니다. 예시: "주어진 데이터를 분석하고, 분석 과정과 결과를 단계별로 자세히 설명해 주세요." 외부 도구 활용하기 모델의 성능을 보완하기 위해 텍스트 검색 도구(RAG, 검색 정렬 생성 등)를 활용할 수 있습니다. OpenAI의 Code Interpreter를 통해 모델이 수학/코드 관련 작업을 보다 정확히 수행할 수도 있습니다. 예시: "아래 Python 코드를 실행하고, 코드의 동작 원리와 결과를 설명해 주세요. [Python 코드]" 변경 사항 체계적으로 테스트하기 모델의 성능을 개선하기 위해 프롬프트를 수정할 때는 포괄적인 테스트 제품군을 정의하고, 성능 평가 기준을 마련해야 합니다. 일부 예제에서 성능이 향상되더라도 다른 예제에서는 성능이 저하될 수 있음을 염두에 두어야 합니다. 예시: "기존 프롬프트와 새로운 프롬프트의 성능을 다양한 예제를 통해 비교 분석해 주세요." 이상의 7가지 전략과 예시를 참고하여 ChatGPT를 활용한다면 보다 효과적이고 정확한 결과를 얻을 수 있을 것입니다. 사용자의 의도를 명확히 전달하고, 모델의 장점을 최대한 활용하며, 한계를 보완할 수 있는 방법을 찾는 것이 핵심입니다. 이 글이 ChatGPT 사용에 어려움을 겪는 분들께 도움이 되기를 바랍니다.
콘텐주