Meta

안전하고 책임감 있는 AI 개발을 위한 Purple Llama 도입

주요 내용:

Llama 모델은 지금까지 1억 회가 넘게 다운로드 되었으며, 이러한 AI 혁신의 상당 부분은 개방형 모델에 의해 촉진되고 있습니다. 새로운 혁신을 주도하는 개발자들을 위해 Meta는 퍼플 라마(Purple Llama) 프로젝트를 시작하여 개발자들이 개방형 생성 AI 모델을 책임 있게 구축하는 데 도움이 되는 도구와 평가 기능을 제공하고자 합니다.

왜 보라색인가요? 사이버 보안 세계의 컨셉을 차용했습니다. 생성형 AI가 가진 문제점을 최소화하기 위해서는 공격(레드 팀)과 방어(블루 팀)의 자세를 모두 취해야 한다고 믿습니다. 레드 팀과 블루 팀의 책임이 모여 형성된 퍼플 팀은, 잠재적인 위험을 감지하고 줄일 수 있는 협동적인 접근 방식입니다.

우선, 퍼플 라마에는 사이버 보안 평가를 위한 도구와 입·출력 안전장치가 포함될 예정이며, 추후 더 많은 기능이 제공될 예정입니다. 퍼플 라마 프로젝트에 포함된 모든 구성 요소는 연구용과 상업용으로 모두 사용할 수 있는 라이선스가 부여됩니다. 우리는 이것이 개발자 간 협업을 활성화하고, 생성형 AI에 대한 신뢰 및 안전 도구의 표준화하기 위한 중요한 한 걸음이 될 것이라 믿습니다.

사이버 보안

Meta는 대규모 언어 모델(LLM)과 관련해 업계 전반에서 사용할 수 있는 최초의 사이버 보안 안전성 평가 기준 세트를 공유하고자 합니다. 이 기준들은 업계 지침 및 표준을 기반으로 하며, 보안 전문가와의 협업을 통해 마련되었습니다. 초기에 공개되는 평가 기준은 백악관 공약에 명시된 위험들을 해결하는 데 도움이 되는 도구를 제공하는 것을 목표로 합니다. 그 도구들은 다음과 같습니다.:

이러한 도구들은 LLM을 기반으로 AI가 만든 안전하지 않은 코드의 생성 빈도와 LLM이 사이버 공격에 일조할 가능성을 줄일 수 있다고 믿습니다.

입출력 안전장치

Llama 2 – 책임감 있는 사용 가이드에 설명한 바와 같이, LLM에 대한 모든 입출력은 각 애플리케이션에 적합한 콘텐츠 가이드라인에 따라 확인 및 필터링할 것을 권장합니다.

이를 위해 Meta는 개발자들이 잠재적으로 위험한 결과물(output)을 생성하는 것을 방지해 주는 개방형 파운데이션 모델 Llama Guard를 출시합니다. 또한, 혁신에 대한 개방적이고 투명한 접근 방식의 일환으로, 이 모델에 대한 방법론과 연구 결과에 대한 확장된 논의를 담은 보고서도 출간했습니다. Llama Guard는 개방적으로 사용할 수 있는 다양한 데이터셋을 바탕으로 훈련되어, 잠재적으로 위험하거나 규정을 위반하는 유형의 콘텐츠를 탐지할 수 있습니다. Meta의 궁극적인 목표는,  개발자들이 본인의 니즈에 따라 향후 버전들을 개인화하는 걸 허용함으로써 서로 차용할 수 있는 우수한 사례를 만들어내고 개방형 생태계를 개선하는 것입니다.

개방형 생태계

Meta는 AI에 대한 개방적인 접근 방식을 계속해서 취해왔습니다. 탐색적 연구, 개방형 과학, 상호 협업은 Meta의 AI 관련 노력의 근간이자, 개방형 생태계를 만들 수 있는 중요한 기회라고 믿습니다. 지난 7월, 100여 곳의 파트너와 함께 라마 2를 출시할 때 Meta는 이러한 협력적 사고방식을 전면에 내세웠으며, 다음과 같은 많은 파트너가 개방형 신뢰와 안전을 위해 우리와 협력하고 있습니다: AI Alliance, AMD, 애니스케일, AWS, 베인, 클라우드플레어, 데이터브릭스, 델 테크놀로지스, 드롭박스, 구글 클라우드, 허깅 페이스, IBM, 인텔, 마이크로소프트, 엠엘커먼스, 엔비디아, 오라클, 오렌지, 스케일 AI, Together.AI, 그리고 앞으로 더 많은 파트너가 함께할 예정입니다.

‘책임감 있게 개발된 생성형 AI의 개방형 생태계’라는 비전을 공유하는 파트너들과 협력할 수 있어 기쁩니다.