Meta

AI 분야에서 ‘발전’과 ‘경계’는 함께 갈 수 있습니다

닉 클레그, 글로벌 정책 총괄 사장

주요 내용

  • 지난 주 다보스에서 세계 각국의 리더들이 모여 AI가 가져올 기회와 위험에 대해 논의했습니다.
  • Meta는 AI 기술의 개발과 올해 선거에 있어 AI를 활용하는 것에 대한 우리의 책임감 있는 접근법을 소개했습니다.
  • 추후 AI 표준과 거버넌스 모델을 구축하기 위해서는 업계, 정부, 시민사회 간의 협력이 중요합니다.

지난 15일 스위스 다보스에서 개최된 세계경제포럼의 화두는 AI였습니다. AI가 가져올 기회와 위험부터, 기술의 책임감 있는 개발과 다수가 AI의 혜택을 누리도록 정부와 테크 기업이 할 수 있는 일까지. 정치, 비즈니스, 시민사회 분야 세계 각국의 리더들이 모여 AI에 대해 활발히 논의했죠.

저는 세계적인 AI 과학자 얀 르쿤과 다른 메타 동료들과 함께 포럼에 참석해 이러한 문제에 대한 회사의 생각을 제시할 기회를 가졌습니다.

10년 이상 AI 개발의 선두에 서 온 기업으로서, Meta는 AI 분야의 ‘발전’과 ‘경계’가 함께 이루어질 수 있다고 믿습니다. 생산성을 향상시키고 과학 연구를 가속화하는 등 AI는 사회에 큰 혜택을 가져올 수 있는 잠재력이 있습니다. 또한 AI 제품에 안전 장치를 탑재해 잠재적인 위험을 줄이고 정부와 업계가 협력해 관련 표준과 보호 장치를 마련함으로써, AI 기술이 책임감 있고 투명하며 신뢰할 수 있는 방식으로 개발되는 것은 가능하고, 또 필요하다고 생각합니다.

연구자들이 저희가 개발한 AI 도구를 사용하는 사례들을 보며, Meta는 이러한 진전을 직접 확인할 수 있었습니다. 일례로, 예일대와 로잔 연방 공과대학교(EPFL)의 지능형 글로벌 의료 기술 연구소(Lab for Intelligent Global Health Technologies)는 Meta의 최신 대규모 언어 모델 Llama 2를 사용해 의료 분야에 특화된 세계 최고 성능의 오픈 소스 LLM인 Meditron을 구축, 임상 의사결정에 도움을 주었습니다. 또한, 더 빠른 MRI 스캔을 가능케하고자 Meta는 뉴욕대학교와 AI 연구에 대한 파트너십을 맺었습니다. 그리고 재생 에너지 저장 방식을 개발하는 프로젝트에 AI를 활용하기 위해 카네기멜론대학교와도 협업하고 있습니다.

AI 혁신을 위한 개방적 접근 방식

지난 한 해 동안 AI 개발 관련, 정책 입안자들 사이에서 가장 활발했던 논의 중 하나는 ‘기업이 AI 모델을 내부적으로만 유지하는 것이 나은지, 아니면 더 개방적으로 제공하는 것이 나은지’에 대한 것이었습니다. 올해 다보스포럼 참가자들 사이에서는 개방성을 선호하는 분위기를 감지할 수 있었는데, 개방형 접근 방식을 강력히 지지했던 저는 이러한 현상이 고무적이라고 생각했습니다.

마크 저커버그가 지난 19일에 밝힌 바와 같이, Meta의 장기적인 비전은 범용 지능을 구축하고, 이를 책임감 있게 오픈소스화하여 모든 사람이 혜택을 누릴 수 있도록 하는 것입니다. Meta는 그간 AI 기술을 널리 공개해왔습니다. 대표적으로 Llama 2는 현재 웹사이트를 통해 대부분의 사람이 무료로 사용할 수 있을 뿐만 아니라, Microsoft, Google Cloud, AWS 등과의 제휴를 통해서도 제공되고 있습니다. 그 외에도 선도적인 머신 러닝 프레임워크인 PyTorch, 최대 200개 언어를 번역할 수 있는 No Language Left Behind 모델, 약 2초만에 음성 명령어를 36개의 언어로 번역해주는 Seamless AI 음성 번역 모델 등 다양한 기술을 공유해오기도 했습니다.

일부 독자적인 모델은 공유하지 않는 것이 적합할 때도 있다는 것을 알고 있지만, 개방성은 기술의 장점을 널리 확산하기에 가장 좋은 방법이라고 생각합니다. 기업, 스타트업, 연구자들이 최첨단 AI 도구에 쉽게 접근할 수 있도록 한다면, 소수의 대기업뿐만 아니라 우리 모두에게 더 많은 기회가 주어집니다. 그리고 물론 이는 Meta의 이익과도 연결됩니다. 기술의 개방은 더 나은 제품, 더 빠른 혁신, 나아가 시장 활성화로 이어져 다른 많은 기업은 물론 우리에게도 이익이 되기 때문입니다.

개방 혁신은 두려운 것이 아닙니다. 인터넷 인프라는 오픈소스 코드를 바탕으로 운영되며, 수십억 명이 매일 사용하는 스마트폰의 앱, 웹 브라우저도 마찬가지입니다. 사이버 보안 산업도 오픈소스 기술을 기반으로 구축되었죠. 개방적인 접근 방식을 채택하면, 수천 명의 개발자와 연구자가 모델을 면밀히 검토하고 취약점을 지속적으로 테스트할 수 있기 때문에 더욱 안전한 제품을 만들어낼 수 있습니다. 회사라는 울타리에 갇힌 어느 한 팀이 풀기에는 훨씬 오랜 시간이 걸릴 수 있는 문제를 다수의 힘을 모아 식별하고 해결할 수 있는 것입니다. 또 다른 사람들이 이러한 도구를 어떻게 사용하는지 확인함으로써 기술에 대해 더 배우고 관련 문제를 해결할 수 있습니다.

결국 개방성은 AI를 둘러싼 두려움에 대항할 수 있는 최고의 해독제입니다. 개방성은 특히 기술의 초기 단계에 필요한 협업, 조사, 반복을 가능하게 합니다. 학계, 연구자, 언론인이 AI 모델을 평가하고, 자신들이 옳은 일을 하고 있다는 대기업들의 주장에 이의를 제기할 수 있도록 함으로써 기업에 책임감을 부여하는 것이죠.


생성형 AI와 선거

Meta는 생성형 AI 도구가 올해 전 세계에 치뤄지는 선거에서 악용될 가능성을 매우 심각하게 바라보고 있습니다. 올해 선거가 임박함에 따라, 저희는 AI의 발전이 어떤 의미를 가질지에 대해 전문가들과 논의해 왔으며, AI나 사람 등 콘텐츠 생성 주체에 관계없이 적용되는 정책을 마련했습니다. 자세한 내용은 올해 선거에 대한 Meta의 계획을 확인하세요.

Meta의 AI 기능으로 이미지가 생성됐을 때 이용자들에게 안내하는 등, Meta는 공식적인 업계 기준이 마련될 때까지 기다리기보다 할 수 있는 선에서 자체적으로 조치를 취하고 있으며, Partnership on AI와 같은 포럼을 통해 다른 기업들과 협력하여 관련 표준을 개발하고 있습니다.

지난 목요일 개최된 세계경제포럼의 패널 토론에서 AI가 온라인상의 혐오 표현에 대처하는 데 어떻게 도움이 되는지 공유할 수 있는 기회가 있었습니다.


책임감 있는 AI 개발

오늘날의 AI 도구는 놀라운 능력을 갖추고 있지만, 공상 과학 소설에서 묘사되는 초지능 수준에는 미치지 못합니다. AI 도구는 패턴 인식 시스템을 바탕으로 작동하며, 문장을 연결하거나, 이미지, 오디오를 생성하여 응답을 출력해내는 자동 완성 기능을 갖춘 거대한 데이터베이스입니다. 미래에 초래할 수 있는 잠재적 위험에 대해 대비하는 것은 중요하지만, 그렇다고 해서 현재 그 기술이 해결해야 할 과제에 집중하지 않아서는 안 됩니다.

AI 모델과 도구를 개발해온 Meta의 오랜 경험은 AI 제품에 대한 안전장치를 초기에 구축하는 데 도움이 됩니다. Meta는 안전 및 책임 가이드라인에 맞춰 모델을 훈련하고 파인튜닝합니다. 또한, 외부 전문가 및 내부 팀과 함께 ‘레드팀(공격팀)’이라고도 불리는 부하 테스트를 진행함으로써 초기 모델의 취약점을 투명하게 파악하고 완화할 수 있도록 합니다. 일례로, 저희는 2,500명 이상의 해커로부터 부하 테스트를 받을 수 있는 DEFCON 컨퍼런스에 Llama 2를 제출한 바 있습니다.

또한, 우리가 출시하는 모델과 도구에 대해 투명하게 공개하는 것도 중요하다고 생각합니다. 일반인들이 관련 지식 없이도 해당 기술에 대해 쉽게 접근할 수 있도록 시스템 작동 방식을 자세히 설명하는 시스템모델 카드를 발행하거나, 안전 및 개인정보 보호에 대한 접근 방식, 레드팀(공격팀) 구성 노력, 업계 안전 벤치마크에 대한 모델 평가를 설명하는 내용을 담은 연구 논문을 Llama 2와 함께 공개한 이유도 바로 이 때문입니다. 또한 다른 사람들도 책임감 있게 혁신할 수 있도록 책임감 있는 사용 가이드를 발표하기도 했습니다. 최근에는 개발자와 연구자가 사이버 보안 평가 도구를 사용해 책임감 있게 생성형 AI 모델을 구축할 수 있도록 퍼플 라마 프로젝트를 도입했습니다.

업계, 정부, 학계, 시민사회 모두가 상호 협력하는 것도 중요합니다. 예를 들어, Meta는 Partnership on AI의 창립 멤버로서, AI로 생성된 콘텐츠에 대한 안전장치를 마련하는 데 중요한 역할을 하는 ‘합성 미디어에 대한 공동 행동 프레임워크(Framework for Collective Action on Synthetic Media)에 참여하고 있습니다.

정부의 역할도 중요합니다. 저는 지난 몇 달 동안 영국, 유럽연합, 미국, 인도, 일본 등 각국의 규제 당국 및 정책 입안자들과만났습니다. 작년 백악관의 자발적 약속(Voluntary AI Commitments)과 유사하게 많은 국가들이 AI를 책임감 있게 개발하고 배포하기 위해 자체 프레임워크를 고려하고 있다는 것은 고무적이지만, 공통된 AI 표준과 거버넌스 모델을 설정하기 위해서는 정부, 특히 민주주의 국가가 모두 함께 협력해야 합니다.

AI와 관련해서는 앞으로 극복해야 할 과제가 많지만, 다보스에서 가장 고무적이었던 점은 정부, 기업, 시민사회의 리더들이 이러한 문제에 적극적으로 논의하고 있다는 점입니다. AI를 둘러싼 논의는 불과 몇 달 전보다 훨씬 더 발전하고 정교해졌으며, 이는 모두에게 좋은 일이라고 생각합니다.



Facebook은 콘텐츠를 맞춤화하고, 광고를 조정 및 측정하고, 안전한 경험을 제공하기 위해 쿠키를 사용합니다. 사이트를 클릭하거나 탐색하면 Facebook이 쿠키를 통해 Facebook 및 외부 플랫폼에서 정보를 수집하는 것에 동의하는 것입니다. 이용할 수 있는 관리 기능을 비롯한 자세한 내용을 쿠키 정책에서 알아보세요.