오픈 소스 인공지능
| 시리즈의 일부 |
| 인공지능 (AI) |
|---|
오픈 소스 인공지능(open-source artificial intelligence)은 자유롭게 사용, 연구, 수정 및 공유할 수 있는 AI 시스템이다.[1] 이러한 특성은 데이터 세트, 코드 및 모델 매개변수를 포함하여 시스템의 각 구성 요소에 적용되어 AI 개발에 대한 협업적이고 투명한 접근 방식을 촉진한다.[1] 아파치 라이선스, MIT 허가서, GNU 일반 공중 사용 허가서와 같은 자유-오픈 소스 소프트웨어 (FOSS) 라이선스는 오픈 소스 인공지능에 접근, 수정 및 재배포할 수 있는 조건을 명시한다.[2]
오픈 소스 모델은 AI 기술에 대한 더 넓은 접근을 제공하여 더 많은 개인과 조직이 AI 연구 및 개발에 참여할 수 있도록 한다.[3][4] 이와 대조적으로 폐쇄형 인공지능은 독점적이며 소스 코드 및 내부 구성 요소에 대한 접근을 제한한다.[3] 기업들은 시장에서 경쟁 우위를 유지하기 위해 종종 폐쇄형 제품을 개발한다.[5] 그러나 일부 전문가들은 오픈 소스 AI 도구가 폐쇄형 제품보다 개발 우위를 가질 수 있으며 시장에서 이를 추월할 잠재력이 있다고 제안한다.[5][4]
인기 있는 오픈 소스 인공지능 프로젝트 범주에는 대형 언어 모델, 기계 번역 도구 및 챗봇이 포함된다.[6] 소프트웨어 개발자가 오픈 소스 인공지능(AI) 자원을 생산하려면 개발에 사용하는 다양한 다른 오픈 소스 소프트웨어 구성 요소를 신뢰해야 한다.[7] 오픈 소스 AI 소프트웨어는 악의적인 행위자가 공개 모델의 안전 프로토콜을 원하는 대로 제거할 수 있으므로 폐쇄형 AI에 비해 잠재적으로 증가된 위험을 가질 수 있다고 추측된다.[4] 마찬가지로, 폐쇄형 AI도 의존성, 프라이버시, 불투명한 알고리즘, 기업 통제 및 제한된 가용성 문제로 인해 오픈 소스 AI에 비해 위험이 증가할 수 있으며, 이는 유익한 혁신을 늦출 수 있다고 추측된다.[8][9][10]
개방성은 차별화되므로 AI 시스템의 개방성에 대한 논쟁도 있다.[11] Nature의 기사에서는 Meta의 Llama 3와 같이 개방형으로 제시된 일부 시스템이 "API 또는 명확히 비개방적인 사용 제한이 적용되는 모델을 다운로드하는 기능 외에는 거의 제공하지 않는다"고 제안한다. 이러한 소프트웨어는 "오픈워싱"[12] 시스템으로 비판받았으며, 폐쇄형으로 이해하는 것이 더 좋다.[9] AI 시스템의 개방성을 평가하는 몇 가지 연구와 프레임워크가 있으며[13][11] 오픈 소스 이니셔티브에 의한 오픈 소스 AI를 구성하는 요소에 대한 새로운 정의도 있다.[14][15][16] 일부 대형 언어 모델은 훈련 코드와 데이터가 공개되지 않더라도 훈련된 매개변수가 공개적으로 사용 가능한 오픈 웨이트로 출시된다.[17][18]
역사
[편집]오픈 소스 인공지능의 역사는 AI 기술 개발과 오픈 소스 소프트웨어 운동의 성장과 밀접하게 얽혀 있다.[19] 오픈 소스 AI는 지난 수십 년 동안 다양한 학술 기관, 연구소, 기술 기업 및 독립 개발자들의 기여로 크게 발전했다.[20] 이 섹션에서는 오픈 소스 AI의 초기부터 현재까지의 주요 발전 단계를 살펴본다.
1990년대: AI 및 오픈 소스 소프트웨어의 초기 개발
[편집]AI의 개념은 앨런 튜링과 존 매카시와 같은 컴퓨터 과학자들이 현대 AI 이론과 알고리즘의 기초를 다진 20세기 중반으로 거슬러 올라간다.[21] AI의 초기 형태인 자연어 처리 "의사" ELIZA는 1977년 제프 슈라거(Jeff Shrager)에 의해 BASIC 프로그램으로 재구현되어 공유되었으며, 곧 다른 많은 언어로 번역되었다. 초기 AI 연구는 기호 추론 시스템과 규칙 기반 전문가 시스템 개발에 초점을 맞추었다.[22]
이 시기에 오픈 소스 소프트웨어의 개념이 형성되기 시작했으며, 리처드 스톨먼과 같은 선구자들은 프로그래밍에서 협업과 혁신을 촉진하기 위한 수단으로 자유 소프트웨어를 옹호했다.[23] 1985년 스톨먼이 설립한 자유 소프트웨어 재단은 소프트웨어를 자유롭게 사용, 수정 및 배포할 수 있다는 아이디어를 홍보한 최초의 주요 조직 중 하나였다. 이 운동의 아이디어는 AI 모델 및 알고리즘을 포함한 소프트웨어 생성에서 공개 협업의 잠재적 이점을 더 많은 개발자들이 인식하기 시작하면서 오픈 소스 AI 개발에 영향을 미쳤다.[24][25]
1990년대에 오픈 소스 소프트웨어가 더 많은 인기를 얻기 시작했고,[26] 기계 학습과 통계적 방법의 부상 또한 더 실용적인 AI 도구 개발로 이어졌다. 1993년에는 다양한 공개 소프트웨어가 포함된 CMU 인공지능 저장소(CMU Artificial Intelligence Repository)가 시작되었다.[27]
2000년대: 오픈 소스 AI의 등장
[편집]2000년대 초반, 누구나 사용하고 기여할 수 있는 더 사용자 친화적인 기반 라이브러리 및 프레임워크의 출시와 함께 오픈 소스 AI가 인기를 얻기 시작했다.[28]
OpenCV는 2000년에 출시되었으며[29] 결정 트리, k-최근접 이웃 (kNN), 나이브 베이즈 및 서포트 벡터 머신 (SVM)과 같은 다양한 전통적인 AI 알고리즘을 포함했다.[30]
2007년에는 Scikit-learn이 출시되었다.[31] 이는 사용 편의성과 견고한 기능성 덕분에 일반적인 기계 학습을 위한 가장 널리 사용되는 라이브러리 중 하나가 되었으며, 회귀, 분류 및 클러스터링과 같은 일반적인 알고리즘을 구현했다.[32][33] Theano 또한 같은 해에 출시되었다.[34]
오픈 소스 AI 프레임워크의 부상 (2010년대)
[편집]오픈 소스 딥 러닝 프레임워크인 Torch는 2002년에 출시되었고 2011년에 Torch7과 함께 오픈 소스화되었으며, 나중에 PyTorch 및 텐서플로로 보강되었다.[35][36] 이러한 프레임워크는 연구원과 개발자들이 이미지 인식, 자연어 처리 (NLP) 및 자율 주행과 같은 작업을 위한 신경망을 구축하고 훈련할 수 있도록 했다.[37][38]
알렉스넷은 2012년에 출시되었고,[39] Google의 Word2vec은 자연어 처리를 위해 2013년에 출시되었다.[40][41]
2014년에는 Word2vec의 경쟁자인 GloVe가 아파치 2.0 라이선스 하에 소스 코드를 출시했으며, 훈련된 데이터 세트를 문서화하고 모델 가중치를 퍼블릭 도메인 헌정 및 라이선스 하에 출시했다.[42]
오픈 소스 생성형 AI (2020년대~현재)
[편집]GPT-2가 발표되면서 OpenAI는 악의적인 응용 프로그램에 대한 우려를 이유로 모델의 소스 코드를 비공개로 유지할 계획이었다.[43] 그러나 OpenAI는 대중의 비난에 직면한 후 출시 3개월 만에 GPT-2의 소스 코드를 GitHub에 공개했다.[43] OpenAI는 GPT-3 또는 GPT-4 모델의 소스 코드나 사전 훈련된 가중치를 공개적으로 출시하지 않았지만, 개발자는 OpenAI API를 통해 해당 기능을 통합할 수 있다.[44][45]
OpenAI의 GPT-3(2020)와 같은 대형 언어 모델 (LLM)과 생성형 인공지능의 부상은 오픈 소스 AI 프레임워크에 대한 수요를 더욱 촉진했다.[46][47] 이러한 모델들은 챗봇, 콘텐츠 생성 및 코드 생성과 같은 다양한 응용 분야에서 사용되어 AI 시스템의 광범위한 기능을 보여주었다.[48] GPT-3 출시 당시 GPT-2는 여전히 세계에서 가장 강력한 오픈 소스 언어 모델이었으며, EleutherAI가 2021년에 GPT-Neo[49] 및 GPT-J[49][50]를 훈련하고 출시하게 만들었다.
2022년 2월 EleutherAI는 GPT-NeoX-20B를 출시하여 Meta의 FairSeq Dense 13B 모델이 2021년 말에 GPT-J를 넘어선 이후로 세계에서 가장 강력한 오픈 소스 언어 모델이라는 타이틀을 되찾았다.[51] 2022년에는 Meta의 OPT[52] 및 Galactica,[53][54] BigScience Research Workshop의 BLOOM,[55][56] 및 칭화대학교의 GLM을 포함한 다양한 비오픈 소스 라이선스 하의 더 크고 강력한 모델들이 부상했다.
2021년과 2022년에 유럽에서 AI 입법을 둘러싼 초기 협상 중에 오픈 소스 AI에 대한 과도한 규제를 피하기 위한 제안이 이루어졌다.[57] 일부 조직이 "오픈 소스"라는 레이블을 자신들의 작업에 잘못 적용하고 있다는 점을 지적하며, 2022년 오픈 소스 이니셔티브는 1998년에 오픈 소스 소프트웨어에 대한 널리 받아들여지는 표준을 처음 고안했으며, AI 소프트웨어 및 모델의 요구 사항에 맞는 "오픈 소스"의 정의를 전문가들과 함께 연구하기 시작했다. 가장 논란이 되는 측면은 데이터 접근과 관련이 있다. 일부 모델은 민감한 데이터를 기반으로 훈련되므로 공개할 수 없기 때문이다. 2024년에 그들은 오픈 소스 AI 정의 1.0(OSAID 1.0)을 완성했으며, 20개 이상의 조직으로부터 지지를 받았다.[58][59] 이는 데이터를 처리하고 모델을 훈련하며 모델로부터 추론하는 소프트웨어의 전체 공개를 요구한다. 데이터의 경우 "숙련된 사람이 실질적으로 동등한 시스템을 구축할 수 있도록 시스템 훈련에 사용된 데이터에 대한 충분히 상세한 정보"만을 요구한다.[59]
2023년에는 LLaMA 1과 2, MosaicML의 MPT,[60][61] 그리고 미스트랄 AI의 Mistral 및 Mixtral 모델이 출시되었다.
2024년에 Meta는 LLaMA 3.1 405B를 포함한 대규모 AI 모델 컬렉션을 출시했으며, 이는 가장 진보된 폐쇄형 모델과 비교할 만하다.[62] 이 회사는 AI에 대한 접근 방식이 다른 주요 기술 회사들과 달리 오픈 소스라고 주장했다.[62] 오픈 소스 이니셔티브 및 기타 기관들은 Meta가 Llama를 오픈 소스로 설명함에도 불구하고 Llama의 소프트웨어 라이선스가 일부 용도로 사용되는 것을 금지하기 때문에 오픈 소스가 아니라고 주장했다.[63][64][65]
딥시크는 2024년 12월에 V3 LLM을 출시했고, 2025년 1월 20일에는 R1 추론 모델을 MIT 라이선스 하의 오픈 웨이트 모델로 출시했다.[66][67]
2022년 말 OpenAI의 독점 ChatGPT 모델이 출시된 이후, 완전히 개방된(가중치, 데이터, 코드 등) 대형 언어 모델은 극히 일부만이 출시되었다. 이 중에는 OLMo 모델 시리즈가 포함된다.[68][69] 2025년 9월, 스위스 컨소시엄은 Apertus라는 완전히 개방된 모델을 출시하여 이 짧은 목록에 추가했다.[70][71] 이 모델은 8B와 70B의 두 가지 크기로 출시되었다.[72] 라틴 아메리카에 초점을 맞춘 오픈 모델인 Latam-GPT는 이 분야에서 진행 중인 다른 지역적 노력 중 하나이다.[73]
윤리
[편집]AI 모델 개발과 병행하여 AI 개발에서 윤리적 기준을 보장하는 것에 대한 관심이 증가하고 있다.[74][75] 여기에는 편향, 프라이버시 및 AI 시스템 오용 가능성과 같은 우려 사항을 다루는 것이 포함된다.[74][75] 그 결과, 책임 있는 AI 개발을 위한 프레임워크와 Google이 도입한 모델 카드 개념과 같은 윤리적 고려 사항을 문서화하기 위한 지침이 인기를 얻었지만,[76] 연구에 따르면 의도하지 않은 부정적인 결과를 피하기 위해 계속해서 채택되어야 할 필요가 있다.[77][78]
프레임워크
[편집]리눅스 재단의 프로젝트인 LF AI & Data 재단은 협업과 혁신을 촉진하고 오픈 소스 프로젝트를 지원함으로써 오픈 소스 AI 환경에 큰 영향을 미쳤다.[79] LF AI & Data는 중립적인 플랫폼을 제공함으로써 개발자, 연구원 및 조직이 최첨단 AI 및 데이터 솔루션을 구축하고 중요한 기술적 문제를 해결하며 윤리적인 AI 개발을 촉진하기 위해 단결한다.[80]
2024년 10월 현재, 이 재단은 북미, 유럽 및 아시아의 77개 회원사로 구성되어 있으며, 엔비디아, 아마존, 인텔, 마이크로소프트와 같은 실리콘밸리 거대 기업을 포함한 다양한 조직이 기여한 67개의 오픈 소스 소프트웨어(OSS) 프로젝트를 호스팅하고 있다.[81] 알리바바, 틱톡, AT&T 및 IBM과 같은 다른 대기업들도 기여했다.[81] NYU, 미시간 대학교 AI 연구소, 컬럼비아 대학교, 펜실베이니아 주립 대학교와 같은 연구 기관도 LF AI & Data 재단의 준회원이다.[81]
2024년에 OSAID가 개발 중인 동안, 리눅스 재단은 AI 시스템 구성 요소에 대한 기준표를 개발하고 있었으며, 모델 개방성 프레임워크(MOF) 초안을 발표했다.[82] MOF는 기계 학습 모델의 완전성과 개방성을 평가하고 분류하기 위한 시스템이다. 여기에는 더 개방적인 것부터 덜 개방적인 것까지 세 가지 개방성 클래스가 포함된다: 클래스 I: 오픈 사이언스 모델; 클래스 II: 오픈 툴링 모델; 클래스 III: 오픈 모델.[82][83] 리눅스 재단은 OSAID 개발에 참여했으며, OSAID는 동일한 구성 요소 기준표를 채택했다.[84]
2022년 9월, Meta가 기부한 널리 사용되는 PyTorch 딥러닝 프레임워크를 감독하기 위해 PyTorch 재단이 설립되었다.[85] 재단의 임무는 PyTorch와 통합된 오픈 소스, 공급업체 중립 프로젝트의 생태계를 조성하고 유지하여 AI 도구 채택을 촉진하고, 최첨단 도구, 라이브러리 및 기타 구성 요소에 대한 접근을 민주화하여 이러한 혁신을 모든 사람이 접근할 수 있도록 하는 것이다.[86]
PyTorch 재단은 또한 비즈니스 및 기술 거버넌스를 분리하여 PyTorch 프로젝트는 기술 거버넌스 구조를 유지하고, 재단은 자금 조달, 호스팅 비용, 이벤트 및 프로젝트 웹 사이트, GitHub 저장소, 소셜 미디어 계정과 같은 자산 관리를 처리하여 개방형 커뮤니티 거버넌스를 보장한다.[86] 재단 설립 시, 초기 회원사인 AMD, 아마존 웹 서비스, 구글 클라우드, 허깅 페이스, IBM, 인텔, Meta, 마이크로소프트 및 엔비디아의 대표들로 구성된 이사회를 구성했다.[86]
응용 분야
[편집]자연어 처리
[편집]오픈 소스 AI는 대형 언어 모델 (LLM)의 개발 및 채택을 지원했다. OpenAI의 GPT 시리즈와 같은 독점 모델이 대화형 시스템 및 자동화된 콘텐츠 생성과 같은 응용 분야에서 가능한 것을 재정의한 반면, 완전 오픈 소스 모델도 상당한 발전을 이루었다. Google의 BERT는 엔티티 인식 및 언어 번역과 같은 작업에 널리 사용되는 오픈 소스 모델로, NLP에서 다재다능한 도구로 자리매김했다.[87] 이러한 오픈 소스 LLM은 고급 언어 기술에 대한 접근을 민주화하고 독점 시스템에 대한 의존도를 줄였다.[88]
기계 번역
[편집]Hugging Face의 MarianMT는 광범위한 언어 쌍을 지원하는 기계 번역의 한 예이다.[89] 또 다른 주목할 만한 모델은 OpenNMT이다.[90] 이러한 오픈 소스 모델과 함께 유럽의회 말뭉치 및 OPUS를 포함한 WMT (Workshop on Machine Translation) 데이터 세트와 같은 오픈 소스 데이터 세트가 이 분야에 기여하며[91][92] 개발자들이 특정 언어에 대한 모델을 훈련하고 미세 조정하는 데 도움을 준다.[91]
컴퓨터 비전 모델
[편집]OpenCV와 같은 라이브러리는 이미지 인식, 동작 추적 및 얼굴 감지와 같은 실시간 컴퓨터 비전 응용 프로그램을 지원한다.[93][94] 원래 인텔에서 개발한 OpenCV는 컴퓨터 비전을 위한 가장 인기 있는 라이브러리 중 하나가 되었다.[94][93] YOLO (You Only Look Once) 및 Detectron2를 포함한 다른 오픈 소스 컴퓨터 비전 모델도 유사한 기능을 제공한다.[95][96]
이전 세대의 컴퓨터 비전 모델은 컨볼루션 레이어를 통해 이미지 데이터를 처리했지만, 새로운 세대의 컴퓨터 비전 모델은 비전 트랜스포머를 사용한다.[97] 이는 이미지를 작은 패치로 분할하여 이미지에서 가장 관련성이 높은 영역을 식별하며[97] 일반적으로 더 정확한 결과를 생성한다.[98]
로봇공학
[편집]오픈 소스 인공지능은 학계와 산업계 모두에서 유연하고 확장 가능한 개발 환경을 제공함으로써 로봇공학에 상당한 영향을 미쳤다.[99] 로봇 운영체제 (ROS)[100]는 개발자들이 다양한 하드웨어 플랫폼과 로봇 아키텍처에서 작업하는 데 사용하는 프레임워크의 한 예이다.[99] 가제보는 실제 배포 전에 가상 환경에서 로봇 시스템을 테스트하는 데 사용되는 또 다른 오픈 소스 로봇 시뮬레이션 소프트웨어이다.[101]
보건분야
[편집]의료 산업에서 오픈 소스 AI는 진단, 환자 관리 및 개인 맞춤형 치료 옵션에 사용되었다.[102] 오픈 소스 라이브러리는 종양 감지와 같은 작업을 위한 의료 영상 분야에서 사용되어 진단 과정의 속도와 정확성을 향상시켰다.[103][102] 또한, 화학 및 생물학 응용 분야에 특별히 맞춰진 오픈 소스 라이브러리인 OpenChem은 약물 발견을 위한 예측 모델 개발을 가능하게 하여 연구자들이 치료를 위한 잠재적 화합물을 식별하는 데 도움을 준다.[104]
군사
[편집]Meta가 오픈 소스로 설명한 Meta의 Llama 모델은 중국 인민해방군 (PLA)과 제휴한 중국 연구자들의 무단 개조가 드러난 후 록히드 마틴 및 오라클과 같은 미국 국방 계약업체에 채택되었다.[105][106] 오픈 소스 이니셔티브 및 기타 기관들은 Llama의 라이선스에 비미국 군사적 사용을 포함한 사용 사례를 금지하는 이용 목적 제한 방침이 포함되어 있기 때문에 Meta가 Llama를 오픈 소스로 설명한 것에 대해 이의를 제기했다.[65] 중국 연구자들은 Llama의 초기 버전을 사용하여 군사 정보 및 의사 결정에 최적화된 ChatBIT와 같은 도구를 개발했으며, 이에 Meta는 국가 안보를 위해 기술이 전략적으로 사용될 수 있도록 미국 계약업체와의 파트너십을 확장했다.[106] 이러한 응용 분야에는 이제 물류, 유지 보수 및 사이버 보안 강화가 포함된다.[106]
이점
[편집]접근의 민주화
[편집]오픈 소스 AI는 최첨단 도구에 대한 접근을 민주화하여 자원이 부족할 수 있는 개인 및 소규모 조직의 진입 장벽을 낮춘다.[107] 이러한 기술을 자유롭게 사용할 수 있도록 함으로써 오픈 소스 AI는 개발자들이 재정적 제약으로 인해 접근하기 어려웠던 AI 솔루션을 혁신하고 만들 수 있도록 하여 독립 개발자, 연구원, 소규모 조직 및 스타트업이 독점 소프트웨어 라이선스의 재정적 부담 없이 고급 AI 모델을 활용할 수 있도록 한다.[107] 이러한 경제성은 개발자들이 기존 모델을 수정하여 고유한 요구 사항을 충족할 수 있으므로 틈새 또는 전문화된 응용 분야에서 혁신을 장려한다.[107][108]
협업 및 더 빠른 발전
[편집]코드, 데이터 및 연구 결과를 공유함으로써 오픈 소스 AI는 집단적 문제 해결 및 혁신을 가능하게 한다.[108] 텐서플로 및 PyTorch와 같은 프레임워크 개발에서 볼 수 있는 대규모 협업은 기계 학습 (ML) 및 딥 러닝 분야의 발전을 가속화했다.[109]
이러한 플랫폼의 오픈 소스 특성은 또한 전 세계의 기여자(contributor)들이 기존 도구에 대한 수정 및 개선 사항을 제안할 수 있으므로 빠른 반복 및 개선을 용이하게 한다.[109][24] ML 및 딥 러닝 내의 직접적인 개선을 넘어 이러한 협업은 공유된 지식과 전문 지식이 결합됨에 따라 AI 제품의 더 빠른 발전으로 이어질 수 있다.[24][108]
공평한 개발
[편집]개발 프로세스의 개방성은 다양한 기여를 장려하여 소외된 그룹도 AI의 미래를 형성할 수 있도록 한다. 이러한 포용성은 더욱 공평한 개발 환경을 조성할 뿐만 아니라 더 큰 이윤 중심의 기업들이 간과할 수 있는 편향을 해결하는 데 도움이 된다.[110] 다양한 관점의 기여를 통해 오픈 소스 AI는 전 세계 커뮤니티에 더 공정하고 책임감 있으며 영향력 있는 기술을 만들 잠재력을 가지고 있다.[110]
투명성과 불투명성
[편집]오픈 소스 AI의 한 가지 주요 이점은 폐쇄형 대안과 비교하여 제공하는 향상된 투명성이다.[111] 오픈 소스 모델을 통해 기본 알고리즘과 코드를 검사할 수 있으므로 책임감을 높이고 개발자가 모델이 결론에 도달하는 방식을 이해하는 데 도움이 된다.[13] 또한 Llama 및 스테이블 디퓨전과 같은 오픈 웨이트 모델을 통해 개발자는 모델 매개변수에 직접 접근할 수 있어 응용 분야에서 편향을 줄이고 공정성을 높이는 데 도움이 될 수 있다.[13] 이러한 투명성은 특히 의료, 형사 사법 및 금융과 같은 중요한 응용 분야에서 AI 시스템이 내린 결정의 결과가 상당할 수 있는 경우 (그러나 우려 사항 섹션에서 언급된 특정 위험을 초래할 수도 있음) 인간이 읽을 수 있는 출력을 가진 시스템, 즉 "설명 가능한 AI"를 생성하는 데 도움이 될 수 있다.[112]
개인정보 보호 및 독립성
[편집]Nature 사설은 의료 서비스가 언제든지 중단될 수 있고 평가하기 어렵고 환자 프라이버시를 위협할 수 있는 AI 모델에 의존하게 될 수 있다고 제안한다.[8] 저자들은 전 세계의 의료 기관, 학술 연구원, 임상의, 환자 및 기술 기업이 협력하여 기본 코드와 기본 모델에 쉽게 접근할 수 있고 자체 데이터 세트로 자유롭게 미세 조정할 수 있는 의료용 오픈 소스 모델을 구축해야 한다고 제안한다.[8]
우려 사항
[편집]품질 및 보안
[편집]현재 오픈 소스 모델은 대부분의 작업에서 폐쇄형 모델보다 성능이 떨어지지만, 오픈 소스 모델은 격차를 좁히기 위해 더 빠르게 개선되고 있다.[113]
모델의 오픈 소스 개발은 이론적인 위험을 가질 수 있다고 여겨져 왔다. 일단 모델이 공개되면 심각한 보안 문제가 감지되더라도 롤백하거나 업데이트할 수 없다.[4] 예를 들어, 오픈 소스 AI는 옴진리교와 같은 바이오테러리즘 그룹이 AI 모델의 파인 튜닝 및 기타 안전 장치를 제거하여 AI가 더 파괴적인 테러 계획을 개발하는 데 도움을 줄 수 있도록 허용할 수 있다.[114] 실제 테러 계획을 개발하는 데 주요 장애물은 필요한 재료와 장비에 대한 엄격한 제한에 있다.[4] 또한, AI 발전의 빠른 속도는 오래된 모델을 사용하는 것을 덜 매력적으로 만들며, 이는 공격에 더 취약하지만 능력도 떨어진다.[4]
2024년 7월, 미국은 모델 가중치 공개를 제한할 충분한 증거를 찾지 못했다고 명시한 대통령 보고서를 발표했다.[115]
공평성, 사회적 및 윤리적 함의
[편집]인공지능이 의도치 않게 편향된 제품을 만들어낸 수많은 사례가 있었다. 주목할 만한 예로는 아프리카계 미국인의 미래 범죄 및 재범 위험을 백인보다 높게 예측하는 AI 소프트웨어, 비원어민 화자에게 성능이 떨어지는 음성 인식 모델, 여성과 피부색이 어두운 사람에게 성능이 떨어지는 안면 인식 모델 등이 있다.[116][110][117]
연구원들은 또한 오픈 소스 인공지능이 기존의 보안 및 윤리적 문제로 인해 비판을 받아왔다. Bandit, FlawFinder 및 Semgrep과 같은 취약점 스캐너를 사용하여 허깅 페이스와 깃허브에 있는 100,000개 이상의 오픈 소스 모델을 분석한 결과 30% 이상의 모델이 심각한 취약점을 가지고 있는 것으로 나타났다.[118] 또한, 폐쇄형 모델은 일반적으로 오픈 소스 모델보다 안전 위험이 적다.[4] 오픈 소스 모델을 증강할 수 있는 자유는 개발자들이 GPT4-Chan과 같이 윤리적 지침 없이 모델을 출시하게 만들었다.[4]
데이터 품질
[편집]편향된 데이터, 모델 생성의 결함, 이러한 결과의 가능성을 인식하거나 계획하지 못하는 등의 원인으로 인해 불공평하고 편향된 AI 결과로 이어질 수 있는 수많은 시스템적 문제가 존재한다.[78] 연구에서 강조되었듯이, 데이터 세트에서 특정 인구 통계 그룹의 과소 대표와 같은 낮은 데이터 품질과 데이터 큐레이션 과정에서 발생하는 편향은 왜곡된 모델 출력으로 이어진다.[117]
오픈 소스 AI 프로젝트에 대한 연구에 따르면 데이터 품질 검증에 실패했으며, 프로젝트의 28% 미만이 문서에 데이터 품질 문제를 포함했다.[78] 이 연구는 또한 개발자들이 모델의 윤리적 함의에 충분한 강조를 두지 않으며, 개발자들이 윤리적 함의를 고려할 때에도 특정 지표 (모델의 동작)에 과도하게 초점을 맞추고 다른 지표 (데이터 품질 및 위험 완화 단계)를 간과하는 더 광범위한 우려를 보여주었다.[78]
투명성 및 "블랙박스"
[편집]안전 및 편향과 같은 문제와 관련하여 많은 AI 시스템의 또 다른 주요 우려 사항은 투명성 부족이다.[117][119] 많은 오픈 소스 AI 모델은 "블랙박스"로 작동하며, 의사 결정 과정을 생성자조차 쉽게 이해할 수 없다.[117][120] 이러한 해석 가능성 부족은 책임감을 방해하여 모델이 특정 결정을 내린 이유를 식별하거나 다양한 그룹에 걸쳐 공정하게 작동하는지 확인하기 어렵게 만들 수 있다.[117]
또한, AI 모델이 폐쇄형(독점형)일 경우, 널리 채택된 수많은 안면 인식 시스템의 경우와 같이 편향된 시스템이 간과될 수 있다.[117] 이러한 숨겨진 편향은 독점 시스템이 AI가 내린 결정에 대한 신뢰 구간과 같이 이러한 편향을 드러내는 데 도움이 될 수 있는 결정 과정에 대해 아무것도 공개하지 않을 때 지속될 수 있다.[117] 특히 의료 분야에서 사용되는 시스템의 경우, 시스템의 추론을 보고 이해하거나 답변이 어떻게 얻어졌는지에 대한 "[정확한] 설명"을 얻는 것은 "신뢰와 투명성을 보장하는 데 중요하다".[121]
개선을 위한 프레임워크
[편집]이러한 문제에 대응하기 위한 노력은 AI의 윤리적 개발 및 배포를 안내하는 구조화된 문서화 프레임워크의 개발로 이어졌다.
- 모델 카드: Google 연구 논문에서 소개된 이 문서는 AI 모델의 의도된 용도, 제한 사항 및 다양한 인구 통계에 걸친 성능 지표에 대한 투명성을 제공한다.[122][76] 이들은 윤리적 고려 사항을 강조하고 정보에 입각한 사용을 용이하게 하는 표준화된 도구 역할을 한다.[122][76] 아직 비교적 새로운 개념이지만, Google은 이 프레임워크가 AI 투명성을 높이는 데 중요한 역할을 할 것이라고 믿는다.[76]
- 측정 모델링: 이 방법은 사회 과학적 관점을 통해 질적 및 양적 방법을 결합하여 개발자가 AI 시스템이 주장하는 것을 정확하게 측정하는지 확인하는 데 도움이 되는 프레임워크를 제공한다. 이 프레임워크는 재검사 신뢰도 ("구조 신뢰도") 및 모델이 모델링하려는 것을 측정하는지 여부 ("구조 타당성")라는 두 가지 핵심 개념에 중점을 둔다. 이러한 개념을 통해 이 모델은 개발자가 직접 측정할 수 없는 추상적인 아이디어 (예: 사회경제적 지위)를 구체적이고 측정 가능한 구성 요소로 분해하는 데 도움을 주며, 편향으로 이어질 수 있는 오류 또는 불일치를 확인한다. 이러한 가정을 명확히 함으로써 이 프레임워크는 더 공정하고 신뢰할 수 있는 AI 시스템을 만드는 데 도움이 된다.[116]
- 데이터세트를 위한 데이터시트: 이 프레임워크는 데이터세트의 동기, 구성, 수집 과정 및 권장 사용 사례를 문서화하는 것을 강조한다.[123] 데이터세트의 수명 주기를 자세히 설명함으로써 데이터시트는 사용자가 데이터세트의 적절성과 제한 사항을 평가할 수 있도록 한다.[123]
- ChatGPT 개방: 명령어 튜닝 LLM의 개방성 추적: 텍스트 생성 모델의 개방성을 평가하는 커뮤니티 주도형 공개 리소스이다.[124]
- 모델 개방성 프레임워크: 이 새로운 접근 방식은 모델과 데이터세트의 접근성을 중심으로 투명한 AI 개발 원칙을 포함하여 감사 및 책임성을 가능하게 한다.[125]
- 유럽 오픈 소스 AI 지수: 이 지수는 생성형 AI 시스템 및 공급업체의 모델 개방성, 라이선스 및 EU 규제에 대한 정보를 수집한다. 이는 네이메헌 랏바우트 대학교에서 호스팅하는 비영리 공공 리소스이다.[126]
AI 사용이 증가함에 따라 AI 투명성을 높이고 모델 편향을 줄이는 것이 점점 더 강조되는 우려 사항이 되었다.[112] 이러한 프레임워크는 개발자와 이해 관계자가 편향을 식별하고 완화하여 AI 시스템의 공정성과 포용성을 증진하는 데 도움이 될 수 있다.[116][112]
같이 보기
[편집]각주
[편집]- 1 2 “The Open Source AI Definition – 1.0” (미국 영어). 《Open Source Initiative》. 2025년 3월 31일에 원본 문서에서 보존된 문서. 2024년 11월 14일에 확인함.
- ↑ “Licenses” (미국 영어). 《Open Source Initiative》. 2018년 2월 10일에 원본 문서에서 보존된 문서. 2024년 11월 14일에 확인함.
- 1 2 Hassri, Myftahuddin Hazmi; Man, Mustafa (2023년 12월 7일). 《The Impact of Open-Source Software on Artificial Intelligence》 (영어). 《Journal of Mathematical Sciences and Informatics》 3. doi:10.46754/jmsi.2023.12.006. ISSN 2948-3697.
- 1 2 3 4 5 6 7 8 Eiras, Francisco; Petrov, Aleksandar; Vidgen, Bertie; Schroeder, Christian; Pizzati, Fabio; Elkins, Katherine; Mukhopadhyay, Supratik; Bibi, Adel; Purewal, Aaron (2024년 5월 29일). “Risks and Opportunities of Open-Source Generative AI”. arXiv:2405.08597 [cs.LG].
- 1 2 Solaiman, Irene (2023년 5월 24일). “Generative AI Systems Aren't Just Open or Closed Source”. 《Wired》. 2023년 11월 27일에 원본 문서에서 보존된 문서. 2023년 7월 20일에 확인함.
- ↑ Castelvecchi, Davide (2023년 6월 29일). 《Open-source AI chatbots are booming — what does this mean for researchers?》. 《Nature》 618. 891–892쪽. Bibcode:2023Natur.618..891C. doi:10.1038/d41586-023-01970-6. PMID 37340135.
- ↑ Thummadi, Babu Veeresh (2021). 〈Artificial Intelligence (AI) Capabilities, Trust and Open Source Software Team Performance〉. Denis Dennehy; Anastasia Griva; Nancy Pouloudi; Yogesh K. Dwivedi; Ilias Pappas; Matti Mäntymäki (편집). 《Responsible AI and Analytics for an Ethical and Inclusive Digitized Society》. 20th International Federation of Information Processing WG 6.11 Conference on e-Business, e-Services and e-Society, Galway, Ireland, September 1–3, 2021. Lecture Notes in Computer Science. Springer. 629–640쪽. doi:10.1007/978-3-030-85447-8_52. ISBN 978-3-030-85446-1.
- 1 2 3 Toma, Augustin; Senkaiahliyan, Senthujan; Lawler, Patrick R.; Rubin, Barry; Wang, Bo (December 2023). 《Generative AI could revolutionize health care — but not if control is ceded to big tech》 (영어). 《Nature》 624. 36–38쪽. Bibcode:2023Natur.624...36T. doi:10.1038/d41586-023-03803-y. PMID 38036861.
- 1 2 Widder, David Gray; Whittaker, Meredith; West, Sarah Myers (November 2024). 《Why 'open' AI systems are actually closed, and why this matters》 (영어). 《Nature》 635. 827–833쪽. Bibcode:2024Natur.635..827W. doi:10.1038/s41586-024-08141-1. ISSN 1476-4687. PMID 39604616.
- ↑ “What is open source AI and why is profit so important to the debate?” (영어). 《euronews》. 2024년 2월 20일. 2024년 11월 28일에 확인함.
- 1 2 Liesenfeld, Andreas; Lopez, Alianda; Dingemanse, Mark (2023년 7월 19일). 〈Opening up ChatGPT: Tracking openness, transparency, and accountability in instruction-tuned text generators〉. 《Proceedings of the 5th International Conference on Conversational User Interfaces》. Association for Computing Machinery. 1–6쪽. arXiv:2307.05532. doi:10.1145/3571884.3604316. ISBN 979-8-4007-0014-9.
- ↑ Liesenfeld, Andreas; Dingemanse, Mark (2024년 6월 5일). 〈Rethinking open source generative AI: Open washing and the EU AI Act〉. 《The 2024 ACM Conference on Fairness, Accountability, and Transparency》. Association for Computing Machinery. 1774–1787쪽. doi:10.1145/3630106.3659005. ISBN 979-8-4007-0450-5.
- 1 2 3 White, Matt; Haddad, Ibrahim; Osborne, Cailean; Xiao-Yang Yanglet Liu; Abdelmonsef, Ahmed; Varghese, Sachin; Arnaud Le Hors (2024). “The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence”. arXiv:2403.13784 [cs.LG].
- ↑ “The Open Source AI Definition — by The Open Source Initiative”. 《opensource.org》. 2024년 11월 28일에 확인함.
- ↑ “We finally have a definition for open-source AI” (영어). 《MIT Technology Review》. 2024년 11월 28일에 확인함.
- ↑ Robison, Kylie (2024년 10월 28일). “Open-source AI must reveal its training data, per new OSI definition” (영어). 《The Verge》. 2024년 11월 28일에 확인함.
- ↑ “Open Weights: not quite what you've been told” (미국 영어). 《Open Source Initiative》. 2025년 9월 23일에 확인함.
- ↑ “OpenAI releases lower-cost models to rival Meta, Mistral and DeepSeek” (영어). 《CNBC》. 2025년 8월 5일. 2025년 9월 23일에 확인함.
- ↑ “The Evolution of Open Source: From Software to AI: Argano”. 《argano.com》. 2024년 11월 24일에 확인함.
- ↑ Staff, Kyle Daigle, GitHub (2023년 11월 8일). “Octoverse: The state of open source and rise of AI in 2023” (미국 영어). 《The GitHub Blog》. 2024년 11월 24일에 확인함.
- ↑ “Appendix I: A Short History of AI | One Hundred Year Study on Artificial Intelligence (AI100)” (영어). 《ai100.stanford.edu》. 2024년 11월 24일에 확인함.
- ↑ Kautz, Henry (2022년 3월 31일). 《The Third AI Summer: AAAI Robert S. Engelmore Memorial Lecture》 (영어). 《AI Magazine》 43. 105–125쪽. doi:10.1002/aaai.12036. ISSN 2371-9621.
- ↑ “Why Software Should Be Free - GNU Project - Free Software Foundation”. 《www.gnu.org》. 2024년 12월 1일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
- 1 2 3 “The Power of Collaboration: How Open-Source Projects are Advancing AI”.
- ↑ Staff, Kyle Daigle, GitHub (2023년 11월 8일). “Octoverse: The state of open source and rise of AI in 2023” (미국 영어). 《The GitHub Blog》. 2024년 11월 24일에 확인함.
- ↑ Code, Linux (2024년 11월 3일). “A Brief History of Open Source” (미국 영어). 《TheLinuxCode》. 2024년 12월 3일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
- ↑ “Topic: (/)”. 《www.cs.cmu.edu》. 2025년 9월 11일에 확인함.
- ↑ Priya (2024년 3월 28일). “The Evolution of Open Source AI Libraries: From Basement Brawls to AI All-Stars” (영어). 《TheGen.AI》. 2024년 11월 24일에 확인함.
- ↑ Pulli, Kari; Baksheev, Anatoly; Kornyakov, Kirill; Eruhimov, Victor (2012년 4월 1일). 《Realtime Computer Vision with OpenCV》. 《ACM Queue》 10. 40:40–40:56쪽. doi:10.1145/2181796.2206309.
- ↑ Adrian Kaehler; Gary Bradski (2016년 12월 14일). 《Learning OpenCV 3: Computer Vision in C++ with the OpenCV Library》. O'Reilly Media. 26ff쪽. ISBN 978-1-4919-3800-3.
- ↑ “About us” (영어). 《scikit-learn》. 2020년 11월 6일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
- ↑ “Testimonials” (영어). 《scikit-learn》. 2020년 5월 6일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
- ↑ Makkar, Akashdeep (2021년 6월 9일). “What Is Scikit-learn and why use it for machine learning?” (미국 영어). 《Data Courses》. 2024년 11월 24일에 확인함.
- ↑ Bergstra, J.; O. Breuleux; F. Bastien; P. Lamblin; R. Pascanu; G. Desjardins; J. Turian; D. Warde-Farley; Y. Bengio (2010년 6월 30일). 《Theano: A CPU and GPU Math Expression Compiler》 (PDF). 《Proceedings of the Python for Scientific Computing Conference (SciPy) 2010》.
- ↑ Mewawalla, Rahul (2024년 10월 31일). “The democratization of AI: Shaping our collective future”. 《Fast Company》.
- ↑ Costa, Carlos J.; Aparicio, Manuela; Aparicio, Sofia; Aparicio, Joao Tiago (January 2024). 《The Democratization of Artificial Intelligence: Theoretical Framework》 (영어). 《Applied Sciences》 14. 8236쪽. doi:10.3390/app14188236. hdl:10362/173131. ISSN 2076-3417.
- ↑ Singh, Kanwar Bharat; Arat, Mustafa Ali (2019). “Deep Learning in the Automotive Industry: Recent Advances and Application Examples”. arXiv:1906.08834 [cs.LG].
- ↑ Sushumna, Aparna (2024년 6월 10일). “Deep Learning in NLP and Image Recognition” (미국 영어). 《5DataInc》. 2024년 11월 25일에 확인함.
- ↑ Lee, Timothy B. (2024년 11월 11일). “How a stubborn computer scientist accidentally launched the deep learning boom” (영어). 《아르스 테크니카》. 2025년 9월 11일에 확인함.
- ↑ Mikolov, Tomas; Chen, Kai; Corrado, Greg; Dean, Jeffrey (2013년 1월 16일). “Efficient Estimation of Word Representations in Vector Space”. arXiv:1301.3781 [cs.CL].
- ↑ Mikolov, Tomas; Sutskever, Ilya; Chen, Kai; Corrado, Greg S.; Dean, Jeff (2013). 《Distributed representations of words and phrases and their compositionality》. 신경 정보 처리 시스템의 발전. arXiv:1310.4546. Bibcode:2013arXiv1310.4546M.
- ↑ 《Implementation of the GloVe model for learning word representations》, Stanford NLP, 2025년 7월 24일, 2025년 7월 24일에 확인함
- 1 2 Xiang, Chloe (2023년 2월 28일). “OpenAI Is Now Everything It Promised Not to Be: Corporate, Closed-Source, and For-Profit” (미국 영어). 《VICE》. 2024년 11월 14일에 확인함.
- ↑ “OpenAI is giving Microsoft exclusive access to its GPT-3 language model” (영어). 《MIT 테크놀로지 리뷰》. 2021년 2월 5일에 원본 문서에서 보존된 문서. 2024년 12월 8일에 확인함.
- ↑ “API platform” (미국 영어). 《openai.com》. 2024년 12월 8일에 확인함.
- ↑ Daigle, Kyle (2023년 11월 8일). “Octoverse: The state of open source and rise of AI in 2023” (미국 영어). 《The GitHub Blog》. 2025년 1월 21일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
- ↑ “GPT-3 powers the next generation of apps”. 2024년 3월 29일.
- ↑ “Generative AI vs. Large Language Models (LLMs): What's the Difference?” (영어). 《appian.com》. 2024년 11월 25일에 확인함.
- 1 2 “GPT-3's free alternative GPT-Neo is something to be excited about” (미국 영어). 《벤추어비트》. 2021년 5월 15일. 2023년 3월 9일에 원본 문서에서 보존된 문서. 2023년 4월 14일에 확인함.
- ↑ “Why Release a Large Language Model?” (미국 영어). 《EleutherAI》. 2021년 6월 2일.
- ↑ “EleutherAI: When OpenAI Isn't Open Enough” (미국 영어). 《IEEE Spectrum》. 2021년 6월 2일.
- ↑ Heaven, Will (2022년 5월 3일). “Meta has built a massive new language AI—and it's giving it away for free”. 《MIT 테크놀로지 리뷰》. 2023년 12월 26일에 확인함.
- ↑ Heaven, Will (2022년 11월 18일). “Why Meta's latest large language model survived only three days online”. 《MIT 테크놀로지 리뷰》. 2023년 12월 26일에 확인함.
- ↑ Goldman, Sharon (2022년 11월 18일). [venturebeat.com/ai/what-meta-learned-from-galactica-the-doomed-model-launched-two-weeks-before-chatgpt/ “What Meta learned from Galactica, the doomed model launched two weeks before ChatGPT”]
|url=값 확인 필요 (도움말). 《벤추어비트》. 2025년 7월 21일에 확인함. - ↑ Heikkilä, Melissa (2022년 7월 12일). “BLOOM: Inside the radical new project to democratize AI”. 《MIT 테크놀로지 리뷰》. 2023년 12월 26일에 확인함.
- ↑ “Release of largest trained open-science multilingual language model ever”. 《프랑스 국립과학연구센터》. 2022년 7월 12일. 2023년 12월 26일에 확인함.
- ↑ “AI Act and Open Source” (미국 영어). 《Open Future》. 2025년 7월 24일에 확인함.
- ↑ Vaughan-Nichols, Steven (2024년 10월 24일). “We have an official open-source AI definition now, but the fight is far from over” (영어). 《ZDNET》. 2025년 7월 24일에 확인함.
- 1 2 “The Open Source AI Definition – 1.0” (미국 영어). 《Open Source Initiative》. 2025년 7월 24일에 확인함.
- ↑ Nunez, Michael (2023년 6월 22일). “MosaicML challenges OpenAI with its new open-source language model”. 《벤추어비트》. 2025년 7월 21일에 확인함.
- ↑ Chen, Joanne (2023년 7월 19일). “MosaicML launches MPT-7B-8K, a 7B-parameter open-source LLM with 8k context length”. 《벤추어비트》. 2025년 7월 21일에 확인함.
- 1 2 Mirjalili, Seyedali (2024년 8월 1일). “Meta just launched the largest 'open' AI model in history. Here's why it matters” (미국 영어). 《The Conversation》. 2024년 11월 14일에 확인함.
- ↑ Waters, Richard (2024년 10월 17일). “Meta under fire for 'polluting' open-source”. 《파이낸셜 타임스》. 2024년 11월 14일에 확인함.
- ↑ Edwards, Benj (2023년 7월 18일). “Meta launches Llama 2, a source-available AI model that allows commercial applications”. 《아르스 테크니카》. 2023년 11월 7일에 원본 문서에서 보존된 문서. 2024년 12월 14일에 확인함.
- 1 2 “Meta offers Llama AI to US government for national security”. 《CIO》. 2024년 11월 5일. 2024년 12월 14일에 원본 문서에서 보존된 문서. 2024년 12월 14일에 확인함.
- ↑ “How a top Chinese AI model overcame US sanctions”. 2025년 1월 25일에 원본 문서에서 보존된 문서. 2025년 2월 3일에 확인함.
- ↑ Guo, Daya 외 (2025년 9월 18일). 《DeepSeek-R1 incentivizes reasoning in LLMs through reinforcement learning》. 《Nature》 645. 633–638쪽. Bibcode:2025Natur.645..633G. doi:10.1038/s41586-025-09422-z. PMC 12443585
|pmc=값 확인 필요 (도움말). PMID 40962978. - ↑ Groeneveld, Dirk; Beltagy, Iz; Walsh, Pete; Bhagia, Akshita; Kinney, Rodney; Tafjord, Oyvind; Jha, Ananya Harsh; Ivison, Hamish; Magnusson, Ian (2024년 6월 7일), 《OLMo: Accelerating the Science of Language Models》, arXiv:2402.00838
- ↑ OLMo, Team; Walsh, Pete; Soldaini, Luca; Groeneveld, Dirk; Lo, Kyle; Arora, Shane; Bhagia, Akshita; Gu, Yuling; Huang, Shengyi (2025년 1월 15일), 《2 OLMo 2 Furious》, arXiv:2501.00656
- ↑ Welle, Elissa (2025년 9월 3일). “Switzerland releases an open-weight AI model” (미국 영어). 《The Verge》. 2025년 10월 8일에 확인함.
- ↑ Allen, Matthew (2025년 9월 2일). “Switzerland launches transparent ChatGPT alternative” (영어). 《SWI swissinfo.ch》. 2025년 10월 8일에 확인함.
- ↑ Hernández-Cano, Alejandro; Hägele, Alexander; Huang, Allen Hao; Romanou, Angelika; Solergibert, Antoni-Joan; Pasztor, Barna; Messmer, Bettina; Garbaya, Dhia; Ďurech, Eduard Frank (2025년 9월 17일), 《Apertus: Democratizing Open and Compliant LLMs for Global Language Environments》, arXiv:2509.14233
- ↑ Lagos, Anna. “Latam-GPT: The Free, Open Source, and Collaborative AI of Latin America” (미국 영어). 《Wired》. ISSN 1059-1028. 2025년 10월 8일에 확인함.
- 1 2 Gujar, Praveen. “Council Post: Building Trust In AI: Overcoming Bias, Privacy And Transparency Challenges” (영어). 《Forbes》. 2024년 11월 25일에 확인함.
- 1 2 “Ethical Issues in Open-Source Intelligence | Restackio” (영어). 《www.restack.io》. 2024년 12월 1일에 원본 문서에서 보존된 문서. 2024년 11월 25일에 확인함.
- 1 2 3 4 “Google Model Cards”. 《modelcards.withgoogle.com》. 2024년 11월 25일에 확인함.
- ↑ Mitchell, Margaret; Wu, Simone; Zaldivar, Andrew; Barnes, Parker; Vasserman; Hutchinson, Ben; Spitzer, Elena; Raji, Inioluwa Deborah; Gebru, Timnit (2018년 10월 5일). 《Model Cards for Model Reporting》 (영어). 220–229쪽. arXiv:1810.03993. doi:10.1145/3287560.3287596. ISBN 978-1-4503-6125-5.
- 1 2 3 4 Gao, Haoyu; Zahedi, Mansooreh; Treude, Christoph; Rosenstock, Sarita; Cheong, Marc (2024년 6월 26일). “Documenting Ethical Considerations in Open Source AI Models” (영어). arXiv:2406.18071 [cs.SE].
- ↑ “Projects – LFAI & Data” (미국 영어). 《lfaidata.foundation》. 2024년 12월 8일에 확인함.
- ↑ “LFAI & Data – Linux Foundation Project” (미국 영어). 《lfaidata.foundation》. 2023년 10월 29일에 원본 문서에서 보존된 문서. 2024년 12월 8일에 확인함.
- 1 2 3 “LF AI & Data Landscape” (영어). 《LF AI & Data Landscape》. 2024년 11월 14일에 확인함.
- 1 2 “ZDNet: "We're a big step closer to defining open source AI - but not everyone is happy"” (미국 영어). 《CNCF》. 2024년 8월 23일. 2025년 7월 24일에 확인함.
- ↑ “Introducing the Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency and Usability in AI – LFAI & Data” (미국 영어). 《lfaidata.foundation》. 2025년 7월 24일에 확인함.
- ↑ “Cailean Osborne: voices of the Open Source AI Definition” (미국 영어). 《Open Source Initiative》. 2024년 7월 18일. 2025년 7월 24일에 확인함.
- ↑ “Announcing the PyTorch Foundation to Accelerate Progress in AI Research” (미국 영어). 《Meta》. 2022년 9월 12일. 2024년 11월 14일에 확인함.
- 1 2 3 “PyTorch Foundation” (영어). 《PyTorch》. 2024년 11월 14일에 확인함.
- ↑ Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (2019년 5월 24일). “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”. arXiv:1810.04805 [cs.CL].
- ↑ Chang, Yupeng; Wang, Xu; Wang, Jindong; Wu, Yuan; Yang, Linyi; Zhu, Kaijie; Chen, Hao; Yi, Xiaoyuan; Wang, Cunxiang; Wang, Yidong; Ye, Wei; Zhang, Yue; Chang, Yi; Yu, Philip S.; Yang, Qiang (2024년 3월 29일). 《A Survey on Evaluation of Large Language Models》. 《ACM Trans. Intell. Syst. Technol.》 15. 39:1–39:45쪽. arXiv:2307.03109. doi:10.1145/3641289. ISSN 2157-6904.
- ↑ Junczys-Dowmunt, Marcin; Grundkiewicz, Roman; Dwojak, Tomasz; Hoang, Hieu; Heafield, Kenneth; Neckermann, Tom; Seide, Frank; Germann, Ulrich; Aji, Alham Fikri (2018년 4월 4일). “Marian: Fast Neural Machine Translation in C++”. arXiv:1804.00344 [cs.CL].
- ↑ Klein, Guillaume; Kim, Yoon; Deng, Yuntian; Senellart, Jean; Rush, Alexander M. (2017년 3월 6일). “OpenNMT: Open-Source Toolkit for Neural Machine Translation”. arXiv:1701.02810 [cs.CL].
- 1 2 Aulamo, Mikko; Tiedemann, Jörg (September 2019). Hartmann, Mareike; Plank, Barbara (편집). 《The OPUS Resource Repository: An Open Package for Creating Parallel Corpora and Machine Translation Services》. 《Proceedings of the 22nd Nordic Conference on Computational Linguistics》 (Turku, Finland: Linköping University Electronic Press). 389–394쪽. 2025년 6월 27일에 원본 문서에서 보존된 문서. 2024년 11월 16일에 확인함.
- ↑ Koehn, Philipp (2005년 9월 13일). 《Europarl: A Parallel Corpus for Statistical Machine Translation》. 《Proceedings of Machine Translation Summit X: Papers》 (Phuket, Thailand). 79–86쪽.
- 1 2 Culjak, Ivan; Abram, David; Pribanic, Tomislav; Dzapo, Hrvoje; Cifrek, Mario (2012년 5월 25일). 《A brief introduction to OpenCV》. 《제35회 국제 컨벤션 MIPRO 회의록》. 1725–1730쪽 – IEEE 경유.
- 1 2 Pulli, Kari; Baksheev, Anatoly; Kornyakov, Kirill; Eruhimov, Victor (June 2012). 《Real-time computer vision with OpenCV》 (영어). 《ACM 커뮤니케이션즈》 55. 61–69쪽. doi:10.1145/2184319.2184337. ISSN 0001-0782 – ACM 경유.
- ↑ Redmon, Joseph; Divvala, Santosh; Girshick, Ross; Farhadi, Ali (2016년 5월 9일). “You Only Look Once: Unified, Real-Time Object Detection”. arXiv:1506.02640 [cs.CV].
- ↑ 《facebookresearch/detectron2》, Meta Research, 2024년 11월 16일, 2024년 11월 16일에 원본 문서에서 보존된 문서, 2024년 11월 16일에 확인함
- 1 2 Dosovitskiy, Alexey; Beyer, Lucas; Kolesnikov, Alexander; Weissenborn, Dirk; Zhai, Xiaohua; Unterthiner, Thomas; Dehghani, Mostafa; Minderer, Matthias; Heigold, Georg (2021년 6월 3일). “An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale”. arXiv:2010.11929 [cs.CV].
- ↑ Khan, Salman; Naseer, Muzammal; Hayat, Munawar; Zamir, Syed Waqas; Khan, Fahad Shahbaz; Shah, Mubarak (2022년 1월 31일). 《Transformers in Vision: A Survey》. 《ACM Computing Surveys》 54. 1–41쪽. arXiv:2101.01169. doi:10.1145/3505244. ISSN 0360-0300.
- 1 2 Macenski, Steve; Foote, Tully; Gerkey, Brian; Lalancette, Chris; Woodall, William (2022년 5월 25일). 《Robot Operating System 2: Design, Architecture, and Uses In The Wild》. 《Science Robotics》 7. arXiv:2211.07752. doi:10.1126/scirobotics.abm6074. ISSN 2470-9476. PMID 35544605.
- ↑ M, Quigley (2009). 《ROS: an open-source Robot Operating System》. 《Proc. Open-Source Software Workshop of the Int'l. Conf. On Robotics and Automation (ICRA), 2009》. 2025년 1월 21일에 원본 문서에서 보존된 문서. 2024년 11월 16일에 확인함.
- ↑ Koenig, N.; Howard, A. (2004). 〈Design and use paradigms for gazebo, an open-source multi-robot simulator〉. 《2004 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (IEEE Cat. No.04CH37566)》 3. IEEE. 2149–2154쪽. doi:10.1109/iros.2004.1389727. ISBN 0-7803-8463-6.
- 1 2 Esteva, Andre; Robicquet, Alexandre; Ramsundar, Bharath; Kuleshov, Volodymyr; DePristo, Mark; Chou, Katherine; Cui, Claire; Corrado, Greg; Thrun, Sebastian; Dean, Jeff (January 2019). 《A guide to deep learning in healthcare》 (영어). 《Nature Medicine》 25. 24–29쪽. doi:10.1038/s41591-018-0316-z. ISSN 1546-170X. PMID 30617335.
- ↑ Ashraf, Mudasir; Ahmad, Syed Mudasir; Ganai, Nazir Ahmad; Shah, Riaz Ahmad; Zaman, Majid; Khan, Sameer Ahmad; Shah, Aftab Aalam (2021). 〈Prediction of Cardiovascular Disease Through Cutting-Edge Deep Learning Technologies: An Empirical Study Based on TENSORFLOW, PYTORCH and KERAS〉 (영어). Gupta, Deepak; Khanna, Ashish; Bhattacharyya, Siddhartha; Hassanien, Aboul Ella; Anand, Sameer; Jaiswal, Ajay (편집). 《International Conference on Innovative Computing and Communications》. Advances in Intelligent Systems and Computing 1165. Singapore: Springer. 239–255쪽. doi:10.1007/978-981-15-5113-0_18. ISBN 978-981-15-5113-0.
- ↑ Korshunova, Maria; Ginsburg, Boris; Tropsha, Alexander; Isayev, Olexandr (2021년 1월 25일). 《OpenChem: A Deep Learning Toolkit for Computational Chemistry and Drug Design》 (영어). 《Journal of Chemical Information and Modeling》 61. 7–13쪽. doi:10.1021/acs.jcim.0c00971. ISSN 1549-9596. PMID 33393291.
- ↑ Pomfret, James; Pang, Jessie; Pomfret, James; Pang, Jessie (2024년 11월 1일). “Exclusive: Chinese researchers develop AI model for military use on back of Meta's Llama” (영어). 《Reuters》. 2024년 11월 16일에 확인함.
- 1 2 3 Roth, Emma (2024년 11월 4일). “Meta AI is ready for war” (영어). 《The Verge》. 2024년 11월 16일에 확인함.
- 1 2 3 “Democratizing AI | IBM” (영어). 《www.ibm.com》. 2024년 11월 5일. 2024년 11월 25일에 확인함.
- 1 2 3 Models, A. I. “Open Source AI: A look at Open Models” (미국 영어). 《Open Source AI Models》. 2024년 11월 25일에 확인함.
- 1 2 Dean, Jeffrey (2022년 5월 1일). 《A Golden Decade of Deep Learning: Computing Systems & Applications》 (영어). 《Daedalus》 151. 58–74쪽. doi:10.1162/daed_a_01900. ISSN 0011-5266.
- 1 2 3 DiChristofano, Alex; Shuster, Henry; Chandra, Shefali; Patwari, Neal (2023년 2월 9일). “Global Performance Disparities Between English-Language Accents in Automatic Speech Recognition”. arXiv:2208.01157 [cs.CL].
- ↑ MACHADO, J. (2025). Toward a Public and Secure Generative AI: A Comparative Analysis of Open and Closed LLMs. Conference Paper. arXiv:2505.10603.
- 1 2 3 Gujar, Praveen. “Council Post: Building Trust In AI: Overcoming Bias, Privacy And Transparency Challenges” (영어). 《Forbes》. 2024년 11월 27일에 확인함.
- ↑ Chen, Hailin; Jiao, Fangkai; Li, Xingxuan; Qin, Chengwei; Ravaut, Mathieu; Zhao, Ruochen; Xiong, Caiming; Joty, Shafiq (2024년 1월 15일). “ChatGPT's One-year Anniversary: Are Open-Source Large Language Models Catching up?”. arXiv:2311.16989 [cs.CL].
- ↑ Sandbrink, Jonas (2023년 8월 7일). “ChatGPT could make bioterrorism horrifyingly easy” (미국 영어). 《Vox》. 2024년 11월 14일에 확인함.
- ↑ “White House says no need to restrict open-source AI, for now” (미국 영어). 《PBS News》. 2024년 7월 30일. 2024년 11월 14일에 확인함.
- 1 2 3 Jacobs, Abigail Z.; Wallach, Hanna (2021년 3월 12일), 〈Measurement and Fairness〉, 《Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency》, 375–385쪽, arXiv:1912.05511, doi:10.1145/3442188.3445901, ISBN 978-1-4503-8309-7
- 1 2 3 4 5 6 7 《Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification》 (PDF). 《Proceedings of Machine Learning Research》. 2024년 11월 26일에 원본 문서 (PDF)에서 보존된 문서. 2024년 11월 27일에 확인함.
- ↑ Kathikar, Adhishree; Nair, Aishwarya; Lazarine, Ben (2023). 〈Assessing the Vulnerabilities of the Open-Source Artificial Intelligence (AI) Landscape: A Large-Scale Analysis of the Hugging Face Platform〉. 《2023 IEEE International Conference on Intelligence and Security Informatics (ISI)》. 1–6쪽. doi:10.1109/ISI58743.2023.10297271. ISBN 979-8-3503-3773-0.
- ↑ Casper, Stephen; Ezell, Carson; Siegmann, Charlotte; Kolt, Noam; Curtis, Taylor Lynn; Bucknall, Benjamin; Haupt, Andreas; Wei, Kevin; Scheurer, Jérémy; Hobbhahn, Marius; Sharkey, Lee; Krishna, Satyapriya; Von Hagen, Marvin; Alberti, Silas; Chan, Alan; Sun, Qinyi; Gerovitch, Michael; Bau, David; Tegmark, Max; Krueger, David; Hadfield-Menell, Dylan (2024년 6월 3일). 〈Black-Box Access is Insufficient for Rigorous AI Audits〉. 《The 2024 ACM Conference on Fairness, Accountability, and Transparency》. 2254–2272쪽. doi:10.1145/3630106.3659037. ISBN 979-8-4007-0450-5.
- ↑ Sharkey, Lee; Chughtai, Bilal; Batson, Joshua; Lindsey, Jack; Wu, Jeff; Bushnaq, Lucius; Goldowsky-Dill, Nicholas; Heimersheim, Stefan; Ortega, Alejandro (2025), 《Open Problems in Mechanistic Interpretability》, arXiv:2501.16496
- ↑ Gohel, Prashant; Singh, Priyanka; Mohanty, Manoranjan (2021년 7월 12일). “Explainable AI: current status and future directions”. arXiv:2107.07045 [cs.LG].
- 1 2 Mitchell, Margaret; Wu, Simone; Zaldivar, Andrew; Barnes, Parker; Vasserman, Lucy; Hutchinson, Ben; Spitzer, Elena; Raji, Inioluwa Deborah; Gebru, Timnit (2018년 10월 5일). 《Model Cards for Model Reporting》 (영어). 220–229쪽. arXiv:1810.03993. doi:10.1145/3287560.3287596. ISBN 978-1-4503-8309-7.
- 1 2 Gebru, Timnit; Morgenstern, Jamie; Vecchione, Briana; Vaughan, Jennifer Wortman; Wallach, Hanna; Daumé III, Hal; Crawford, Kate (2021년 12월 1일). “Datasheets for Datasets”. arXiv:1803.09010 [cs.DB].
- ↑ Liesenfeld, Andreas; Lopez, Alianda; Dingemanse, Mark (2023). 《Opening up ChatGPT: Tracking openness, transparency, and accountability in instruction-tuned text generators》. ACM Digital Library. 1–6쪽. arXiv:2307.05532. doi:10.1145/3571884.3604316. ISBN 979-8-4007-0014-9. 2023년 2월 19일에 확인함.
- ↑ White, Matt; Haddad, Ibrahim; Osborne, Cailean; Liu, Xiao-Yang Yanglet; Abdelmonsef, Ahmed; Varghese, Sachin; Hors, Arnaud Le (2024년 10월 18일). “The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence”. arXiv:2403.13784 [cs.LG].
- ↑ “About European open source AI Index”. 《www.osai-index.eu》. OSAI Index. 2025년 2월 20일에 원본 문서에서 보존된 문서. 2025년 2월 19일에 확인함.
