Meta는 10년 넘게 AI 분야의 선구자 역할을 해왔습니다. 연구자를 위해 1,000개 이상의 AI 모델, 라이브러리, 데이터셋을 출시했으며, 여기에는 Microsoft와의 파트너십을 통해 제공되는 최신 버전의 대규모 언어 모델인 Llama 2도 포함됩니다.
Connect 2023에서 Meta는 사람들이 플랫폼에서 더욱 실재적이고 몰입감 넘치는 경험을 할 수 있도록 지원하는 몇 가지 새로운 생성형 AI 기능을 발표했습니다. Meta는 이러한 생성형 AI 도구가 다양한 방식으로 사람들을 도울 수 있기를 바랍니다. 친구들이 함께 여행을 계획하고 있다고 상상해 보세요: 그룹 채팅에서 AI 어시스턴트에게 액티비티와 맛집 추천을 요청할 수 있습니다. 또는, 선생님이 AI를 사용하여 개별 학생의 다양한 학습 스타일에 맞는 수업 계획을 세울 수도 있겠죠.
이 기술을 구축하려면 모범 사례와 정책을 개발해야 할 책임이 따릅니다. 생성형 AI의 흥미롭고 창의적인 사례는 많지만, 항상 완벽하지는 않습니다. 예를 들어, 어떤 모델은 허구 반응을 생성하거나 학습 데이터에서 학습할 수 있는 고정관념을 답습할 수 있습니다. 저희는 지난 10년 동안 얻은 교훈을 새로운 기능에 반영하여 사람들이 생성형 AI의 한계를 이해할 수 있도록 하는 알림과 위험한 반응을 포착하고 제거하는 데 도움이 되는 무결성 분류기 등의 기능을 추가했습니다. 이는 Llama 2 – 책임감 있는 사용 가이드에 설명된 업계 모범 사례에 따라 이루어지고 있습니다.
책임감 있는 AI에 대한 약속을 지키기 위해 Meta는 제품의 안전 성능을 개선하고자 스트레스 테스트(Stress test)를 실시하고 있으며, 정책 입안자, 학계 및 시민 사회의 전문가, 업계 관계자들과 정기적으로 협력하여 이 기술의 책임감 있는 사용을 발전시키고 있습니다. 이러한 기능을 단계적으로 도입하고 베타 버전의 AI를 출시할 예정입니다. 기술이 발전하고 사람들이 일상에서 어떻게 사용하는지 지켜보면서 이러한 기능을 지속적으로 반복하고 개선해 나갈 것입니다.
안전을 우선시하는 책임감 있는 AI 구축
대규모 언어 모델 기반 어시스턴트인 메타 AI와 같은 새로운 텍스트 기반 경험을 제공하는 맞춤형 AI 모델은 Llama 2의 토대 위에 구축되었으며, 안전 및 책임 학습을 활용하고 있습니다. 또한 오늘 발표한 여러 기능에 대한 구체적인 안전 방안에도 투자하고 있습니다.
Meta는 잠재적 취약성을 파악하고, 위험을 줄이고, 안전을 강화하고, 신뢰성을 강화하기 위해 취하고 있는 조치에 대해 상세히 설명하는 리소스를 공유하고 있습니다. 일례로,
- 외부 및 내부 전문가와 함께 하는 레드팀 활동을 통해 대화형 AI를 평가하고 개선하고 있습니다. 전문가로 구성된 전담 팀이 수천 시간 동안 스트레스 테스트를 진행하며 취약점을 파악하고 수정하는 동시에 예상치 못한 방식으로 사용될 수 있는 방법을 찾고 있습니다.
- 모델을 미세 조정하고 있습니다. 여기에는 유용한 응답을 제공할 가능성을 높일 수 있는 지침과 함께 고품질 이미지 생성 등 특정 작업을 수행하도록 모델을 훈련하는 것이 포함됩니다. 또한 안전 문제에 대응하여 전문가가 지원하는 리소스를 제공하도록 훈련하고 있습니다. 예를 들어, AI는 특정 질문에 대한 응답으로 지역 자살방지 및 섭식 장애 관련 기관을 추천할 수 있지만, 의학적 조언은 제공할 수 없음을 분명히 밝힙니다.
- 모델에게 안전 및 책임 가이드라인을 교육하고 있습니다. 이를 통해 모든 연령대에 잠재적으로 유해하거나 부적절한 반응을 앱에서 공유할 가능성이 줄어듭니다.
- 편향성을 줄이기 위한 조치를 취하고 있습니다. 생성형 AI 시스템의 잠재적 편향성을 해결하는 것은 새로운 연구 분야입니다. 다른 AI 모델과 마찬가지로 더 많은 사람들이 기능을 사용하고 피드백을 공유하면 접근 방식을 개선하는 데 도움이 될 수 있습니다.
- Meta에서는 정책을 위반하는 콘텐츠를 찾아내 조치를 취할 수 있는 새로운 기술을 개발했습니다. Meta 팀은 유해한 반응이 사람들에게 다시 공유되기 전에 이를 스캔하고 걸러내는 알고리즘을 구축했습니다.
- 이러한 기능 내에 피드백 도구를 구축했습니다. 완벽한 AI 모델은 없습니다. 받은 피드백을 바탕으로 모델을 계속 학습시켜 안전 성능을 개선하고 정책 위반을 자동으로 감지할 수 있도록 할 것입니다. 또한 메타의 오랜 ‘버그 바운티 프로그램’을 통해 보안 연구자들이 새로운 생성형 AI 기능을 사용할 수 있도록 하고 있습니다.
개인정보 보호
Meta는 규제 당국, 정책 입안자, 전문가와 함께 사람들의 개인정보를 보호할 책임을 갖고 있습니다. Meta는 이들과 협력하여 데이터 보호에 대한 높은 기준을 충족하도록 노력합니다.
Meta의 생성AI 제품을 구동하는 모델의 학습에 어떤 데이터 유형이 사용되는지 이해하는 것이 중요하다고 생각합니다. 예를 들어, 친구나 가족과의 개인 메시지를 AI 학습 용도로 사용하지 않습니다. 그러나 AI 스티커 모델을 개선하기 위해 사용자가 채팅에서 사용할 스티커를 검색하는 등의 AI 스티커 관련 데이터는 활용할 수 있습니다. 사용하는 데이터 유형에 대한 자세한 내용은 생성형 AI에 관한 개인정보 보호 관련 게시물에서 확인할 수 있습니다.
새로운 기능의 사용법과 한계에 대한 이해
사람들이 AI와 상호 작용할 때, 그리고 이 새로운 기술이 어떻게 작동하는지 이해할 수 있도록 기능 내에 정보를 제공합니다. 부정확하거나 부적절한 결과를 반환할 수 있음을 제품 경험에 명시합니다.
지난해 Meta는 22개의 ‘시스템 카드’를 공개하여 Facebook의 AI 시스템이 어떻게 의사결정을 내리는지 이해할 수 있는 정보를 제공했습니다. 오늘은 Meta의 AI 웹사이트에서 새로운 생성형 AI 시스템 카드를 공유합니다. 하나는 메타 AI를 구동하는 텍스트를 생성하는 AI 시스템용이며, 또 하나는 AI 스티커, 메타 AI, 리스타일 및 백드롭을 위한 이미지를 생성하는 AI 시스템을 위한 시스템 카드입니다. 여기에는 상호작용형데모가 포함되어 있어, 프롬프트 입력을 미세조정하는 것이 결과물에 어떤 영향을 미치는지 확인할 수 있습니다.
AI 기능으로 생성된 이미지 알아보기
Meta는 이러한 기능을 악용해 허위정보를 퍼트리는게 어렵도록 업계 모범를 따르고 있습니다. Meta AI가 생성하거나 편집한 이미지, 리스타일, 백드롭에는 눈에 띄는 마커가 표시되어 사람들이 해당 콘텐츠가 AI에 의해 생성되었음을 알 수 있습니다. 또한, 다른 출처에서 AI가 생성한 이미지와 동영상을 식별하고 라벨을 붙일 수 있도록 다른 기업들과도 협력하고 있습니다. AI 스티커는 사실적이지 않기 때문에 사람들이 실제라고 오해할 가능성이 낮기 때문에 이러한 기능을 추가할 계획은 없습니다.
현재 업계 전반에는 AI로 생성된 콘텐츠를 식별하고 라벨을 부여하는 공통된 표준이 없습니다. 저희는 이러한 표준이 있어야 한다고 생각하며, 이를 개발하기 위해 AI 파트너십과 같은 포럼을 통해 다른 기업들과 협력하고 있습니다.
생성 AI를 악용한 허위정보 확산 방지
AI는 잘못된 정보와 기타 유해한 콘텐츠에 대처하는 데 있어 핵심적인 역할을 합니다. 예를 들어, 사실 확인을 거친 콘텐츠와 거의 중복되는 콘텐츠를 찾아내는 AI 기술을 개발했습니다. 또한 100개 이상의 언어에 걸쳐 작동하며 새로운 유형의 유해 콘텐츠나 진화하는 유해 콘텐츠에 신속하게 대응할 수 있도록 보다 쉽게 적응할 수 있는 Few-Shot Learner라는 도구도 보유하고 있습니다. 이전에는 AI 모델을 학습시키기에 충분한 데이터셋을 구축하기 위해 수천 개, 때로는 수백만 개의 예시를 수집한 다음 제대로 작동하도록 미세 조정을 수행해야 했습니다. Few-Shot Learner는 소수의 예제만으로 AI 모델을 학습시킬 수 있습니다.
생성형 AI는 기존 AI 도구보다 유해한 콘텐츠를 더 빠르고 정확하게 삭제하는 데 도움이 될 수 있습니다. Meta는 콘텐츠의 정책 위반 여부 판단에 도움이 되도록 Meta의 커뮤니티 정책을 대규모 언어 모델(LLM)로 학습시켜 테스트하기 시작했습니다. 이러한 초기 테스트 결과, LLM이 기존 머신 러닝 모델보다 더 나은 성능을 발휘하거나 최소한 Few-Shot Learner와 같은 모델을 개선할 수 있는 것으로 나타났으며, 향후 생성형 AI가 정책을 시행하는 데 도움이 될 것으로 기대하고 있습니다.