Share
Sign In
‘GPT-4·제미나이 울트라’ AI 투명성 ‘하위권
소나
💡
소나 인사이트 :  AI 개발자들에게 투명성의 중요성을 강조하고, 책임성 강화와 정책 개선을 통해 더 나은 혁신을 이루는 데 기여할 수 있는 인사이트를 제공해요
오픈AI의 GPT-4와 구글의 제미나이 1.0 울트라가 최근 AI 투명성 평가에서 하위권을 기록했어요.
스탠퍼드대학교 인간중심인공지능연구소(HAI)가 주요 14개 AI 모델의 투명성 지수를 평가한 결과, GPT-4는 49점으로 11위, 제미나이 1.0 울트라는 47점으로 12위를 기록했어요.
이 투명성 지수는 AI 모델의 개발 과정, 데이터 공개 여부, 설명 가능성 등을 기준으로 평가되며, 100점 만점으로 점수를 매겨요. 이번 조사에서는 허깅페이스와 서비스나우가 공동 개발한 ‘스타코더’가 85점으로 1위를 차지했고, 전체 모델의 평균 점수는 지난해 10월 37점에서 58점으로 상승했어요
HAI 연구팀은 AI 모델들이 여전히 투명성에서 많은 진전을 보이지 못하고 있다고 지적하며, 이는 대부분의 개발자가 필요한 정보를 공개하지 않는 것을 의미한다고 비판했어요. 그러나 지난해 10월 이후 일부 긍정적인 발전이 있었으며, 앞으로 더 나은 사회적 결과를 기대한다고 밝혔어요
특히, 오픈AI는 최근 출시한 GPT-4o의 음성이 미국 배우 스칼릿 조핸슨의 목소리를 모방했다는 논란에 휩싸여 있으며, 이에 대해 법적 대응이 논의되고 있어요
소나 인사이트 :  AI 개발자들에게 투명성의 중요성을 강조하고, 책임성 강화와 정책 개선을 통해 더 나은 혁신을 이루는 데 기여할 수 있는 인사이트를 제공해요
/sonastation
Subscribe
오픈AI·구글 딥마인드 전현직 직원들 AI 위험 경고 및 내부 고발자 보호 촉구
💡소나 인사이트 : 오픈AI와 구글 딥마인드 전현직 직원들이 AI 기술의 위험성을 경고하며, 내부 고발자 보호 조치가 필요하다고 주장했어요. 이들은 기업들이 이윤 추구로 인해 제대로 된 감독을 하지 못하고 있다고 지적했어요. 챗GPT 개발사 오픈AI와 구글 딥마인드의 전현직 직원들이 AI의 위험을 경고하고 나섰어요. 이들은 기업들이 자체적으로 이를 해결할 수 없다고 주장하며 내부 고발자 보호 조치가 마련돼야 한다고 했어요. 13명의 전현직 직원은 공동 성명에서 AI 기술의 잠재적 혜택을 인정하면서도 심각한 위험이 존재한다고 밝혔어요. 이들은 AI 기술이 불평등을 심화시키거나 잘못된 정보 자율적인 AI 시스템의 통제 상실 등 다양한 위험을 초래할 수 있다고 경고했어요. 또한 AI 기업들이 이윤 추구로 인해 제대로 된 감독을 하지 못한다고 지적했어요. 직원들은 회사가 비공개 정보를 정부 및 시민 사회와 공유하지 않으려 한다며, 정부의 효과적인 감독이 필요하다고 주장했어요.
소나
세계 최초의 인공지능 규제법이 다음 달부터 발효
소나 인사이트 : 유럽연합은 미국의 자율적 규제 방식보다 훨씬 엄격하고 포괄적인 규제를 도입해요. 다른 나라들이 참고할 만한 규제 모델을 제시하고 있어요. 세계 최초의 인공지능 규제 법이 다음 달부터 발효돼요. 이 법은 특히 생체 정보 인식을 전면 금지하는 내용을 담고 있어요. 유럽연합(EU)에서 제정된 이 법은 인공지능의 사용에 대한 포괄적인 규제를 포함하며, 인공지능이 생체 정보를 수집하거나 분석하는 행위를 금지해요. 이 법에 따르면, 인공지능 시스템을 이용해 얻은 정보를 범죄 수사에 사용하는 것도 원칙적으로 금지되지만, 강간이나 테러 같은 중범죄의 경우 예외적으로 허용될 수 있어요. 또한, 생성형 인공지능GPT 같은 시스템은 고위험 기술로 분류되지 않지만, 투명성 의무가 부과되어 생성된 콘텐츠는 별도로 표시해야 하고, 저작권을 보호하는 장치를 마련해야 해요. 이번 법의 도입은 인공지능 기술이 급속도로 발전하면서 발생하는 다양한 문제를 해결하기 위한 것으로, 유럽연합은 이를 통해 신뢰성과 투명성을 강조하고 있어요. 유럽연합은 이 법이 전 세계 인공지능 규제의 기준이 될 것이라고 기대하고 있어요. 이 규제 법이 시행됨으로써, 인공지능 기술이 더 안전하고 윤리적으로 사용될 수 있는 환경이 조성될 것으로 기대돼요.
소나
美 소비자단체 소비자 관점 생성형 AI 지침 필요하다고 발표했어요.
소나 인사이트 : 생성형 AI 기술의 발전과 함께 소비자의 권리를 반영한 투명성과 공정성을 강조하는 것이 중요해요. 초기 단계부터 소비자 관점을 반영한 지침이 필요해요. 미국의 소비자단체 '컨슈머리포트'는 생성형 인공지능(AI)에 대한 소비자 관점의 지침 마련이 필요하다고 강조하고 있어요. 컨슈머리포트의 CEO인 마르타 텔라도는 최근 급속도로 확산되고 있는 생성형 AI 기술에 대해 소비자의 권리를 반영한 투명성과 공정성을 우선시해야 한다고 말했어요. 그는 AI 기술이 발전하는 초기 단계부터 소비자단체가 나서서 가이드라인을 제시해야 한다고 강조했어요 텔라도 CEO는 과거 자동차에 안전띠가 의무화되지 않았던 시절을 예로 들며, 소비자단체의 노력이 안전띠 의무화를 이끌어낸 것처럼 AI 분야에서도 소비자의 권리를 보호하기 위해 적극적으로 나서야 한다고 언급했어요. 또한 AI 기술은 국경이 없는 글로벌 이슈이기 때문에, 모든 나라에서 관련 논의가 필요하다고 강조했어요 컨슈머리포트는 로봇청소기, TV, 스마트워치, 카메라 설치 초인종 등 다양한 제품에 대해 사생활 보호를 위한 보안 취약점 평가를 진행하고 있으며, 이러한 노력이 AI 기술에도 적용될 필요가 있다고 보고 있어요. 이들은 특히 로봇 청소기가 수집하는 정보의 악용 가능성에 대해 우려하고 있으며, 소비자 보호를 위해 테스트 방식을 꾸준히 개선하고 있어요
소나