close
본문으로 이동

오픈 소스 인공지능

위키백과, 우리 모두의 백과사전.

오픈 소스 인공지능(open-source artificial intelligence)은 자유롭게 사용, 연구, 수정 및 공유할 수 있는 AI 시스템이다.[1] 이러한 특성은 데이터 세트, 코드 및 모델 매개변수를 포함하여 시스템의 각 구성 요소에 적용되어 AI 개발에 대한 협업적이고 투명한 접근 방식을 촉진한다.[1] 아파치 라이선스, MIT 허가서, GNU 일반 공중 사용 허가서와 같은 자유-오픈 소스 소프트웨어 (FOSS) 라이선스는 오픈 소스 인공지능에 접근, 수정 및 재배포할 수 있는 조건을 명시한다.[2]

오픈 소스 모델은 AI 기술에 대한 더 넓은 접근을 제공하여 더 많은 개인과 조직이 AI 연구 및 개발에 참여할 수 있도록 한다.[3][4] 이와 대조적으로 폐쇄형 인공지능은 독점적이며 소스 코드 및 내부 구성 요소에 대한 접근을 제한한다.[3] 기업들은 시장에서 경쟁 우위를 유지하기 위해 종종 폐쇄형 제품을 개발한다.[5] 그러나 일부 전문가들은 오픈 소스 AI 도구가 폐쇄형 제품보다 개발 우위를 가질 수 있으며 시장에서 이를 추월할 잠재력이 있다고 제안한다.[5][4]

인기 있는 오픈 소스 인공지능 프로젝트 범주에는 대형 언어 모델, 기계 번역 도구 및 챗봇이 포함된다.[6] 소프트웨어 개발자가 오픈 소스 인공지능(AI) 자원을 생산하려면 개발에 사용하는 다양한 다른 오픈 소스 소프트웨어 구성 요소를 신뢰해야 한다.[7] 오픈 소스 AI 소프트웨어는 악의적인 행위자가 공개 모델의 안전 프로토콜을 원하는 대로 제거할 수 있으므로 폐쇄형 AI에 비해 잠재적으로 증가된 위험을 가질 수 있다고 추측된다.[4] 마찬가지로, 폐쇄형 AI도 의존성, 프라이버시, 불투명한 알고리즘, 기업 통제 및 제한된 가용성 문제로 인해 오픈 소스 AI에 비해 위험이 증가할 수 있으며, 이는 유익한 혁신을 늦출 수 있다고 추측된다.[8][9][10]

개방성은 차별화되므로 AI 시스템의 개방성에 대한 논쟁도 있다.[11] Nature의 기사에서는 Meta의 Llama 3와 같이 개방형으로 제시된 일부 시스템이 "API 또는 명확히 비개방적인 사용 제한이 적용되는 모델을 다운로드하는 기능 외에는 거의 제공하지 않는다"고 제안한다. 이러한 소프트웨어는 "오픈워싱"[12] 시스템으로 비판받았으며, 폐쇄형으로 이해하는 것이 더 좋다.[9] AI 시스템의 개방성을 평가하는 몇 가지 연구와 프레임워크가 있으며[13][11] 오픈 소스 이니셔티브에 의한 오픈 소스 AI를 구성하는 요소에 대한 새로운 정의도 있다.[14][15][16] 일부 대형 언어 모델은 훈련 코드와 데이터가 공개되지 않더라도 훈련된 매개변수가 공개적으로 사용 가능한 오픈 웨이트로 출시된다.[17][18]

역사

[편집]

오픈 소스 인공지능의 역사는 AI 기술 개발과 오픈 소스 소프트웨어 운동의 성장과 밀접하게 얽혀 있다.[19] 오픈 소스 AI는 지난 수십 년 동안 다양한 학술 기관, 연구소, 기술 기업 및 독립 개발자들의 기여로 크게 발전했다.[20] 이 섹션에서는 오픈 소스 AI의 초기부터 현재까지의 주요 발전 단계를 살펴본다.

1990년대: AI 및 오픈 소스 소프트웨어의 초기 개발

[편집]

AI의 개념은 앨런 튜링존 매카시와 같은 컴퓨터 과학자들이 현대 AI 이론과 알고리즘의 기초를 다진 20세기 중반으로 거슬러 올라간다.[21] AI의 초기 형태인 자연어 처리 "의사" ELIZA는 1977년 제프 슈라거(Jeff Shrager)에 의해 BASIC 프로그램으로 재구현되어 공유되었으며, 곧 다른 많은 언어로 번역되었다. 초기 AI 연구는 기호 추론 시스템규칙 기반 전문가 시스템 개발에 초점을 맞추었다.[22]

이 시기에 오픈 소스 소프트웨어의 개념이 형성되기 시작했으며, 리처드 스톨먼과 같은 선구자들은 프로그래밍에서 협업과 혁신을 촉진하기 위한 수단으로 자유 소프트웨어를 옹호했다.[23] 1985년 스톨먼이 설립한 자유 소프트웨어 재단은 소프트웨어를 자유롭게 사용, 수정 및 배포할 수 있다는 아이디어를 홍보한 최초의 주요 조직 중 하나였다. 이 운동의 아이디어는 AI 모델 및 알고리즘을 포함한 소프트웨어 생성에서 공개 협업의 잠재적 이점을 더 많은 개발자들이 인식하기 시작하면서 오픈 소스 AI 개발에 영향을 미쳤다.[24][25]

1990년대에 오픈 소스 소프트웨어가 더 많은 인기를 얻기 시작했고,[26] 기계 학습과 통계적 방법의 부상 또한 더 실용적인 AI 도구 개발로 이어졌다. 1993년에는 다양한 공개 소프트웨어가 포함된 CMU 인공지능 저장소(CMU Artificial Intelligence Repository)가 시작되었다.[27]

2000년대: 오픈 소스 AI의 등장

[편집]

2000년대 초반, 누구나 사용하고 기여할 수 있는 더 사용자 친화적인 기반 라이브러리 및 프레임워크의 출시와 함께 오픈 소스 AI가 인기를 얻기 시작했다.[28]

OpenCV는 2000년에 출시되었으며[29] 결정 트리, k-최근접 이웃 (kNN), 나이브 베이즈서포트 벡터 머신 (SVM)과 같은 다양한 전통적인 AI 알고리즘을 포함했다.[30]

2007년에는 Scikit-learn이 출시되었다.[31] 이는 사용 편의성과 견고한 기능성 덕분에 일반적인 기계 학습을 위한 가장 널리 사용되는 라이브러리 중 하나가 되었으며, 회귀, 분류 및 클러스터링과 같은 일반적인 알고리즘을 구현했다.[32][33] Theano 또한 같은 해에 출시되었다.[34]

오픈 소스 AI 프레임워크의 부상 (2010년대)

[편집]

오픈 소스 딥 러닝 프레임워크인 Torch는 2002년에 출시되었고 2011년에 Torch7과 함께 오픈 소스화되었으며, 나중에 PyTorch텐서플로로 보강되었다.[35][36] 이러한 프레임워크는 연구원과 개발자들이 이미지 인식, 자연어 처리 (NLP) 및 자율 주행과 같은 작업을 위한 신경망을 구축하고 훈련할 수 있도록 했다.[37][38]

알렉스넷은 2012년에 출시되었고,[39] Google의 Word2vec자연어 처리를 위해 2013년에 출시되었다.[40][41]

2014년에는 Word2vec의 경쟁자인 GloVe가 아파치 2.0 라이선스 하에 소스 코드를 출시했으며, 훈련된 데이터 세트를 문서화하고 모델 가중치를 퍼블릭 도메인 헌정 및 라이선스 하에 출시했다.[42]

오픈 소스 생성형 AI (2020년대~현재)

[편집]

GPT-2가 발표되면서 OpenAI는 악의적인 응용 프로그램에 대한 우려를 이유로 모델의 소스 코드를 비공개로 유지할 계획이었다.[43] 그러나 OpenAI는 대중의 비난에 직면한 후 출시 3개월 만에 GPT-2의 소스 코드를 GitHub에 공개했다.[43] OpenAI는 GPT-3 또는 GPT-4 모델의 소스 코드나 사전 훈련된 가중치를 공개적으로 출시하지 않았지만, 개발자는 OpenAI API를 통해 해당 기능을 통합할 수 있다.[44][45]

OpenAI의 GPT-3(2020)와 같은 대형 언어 모델 (LLM)과 생성형 인공지능의 부상은 오픈 소스 AI 프레임워크에 대한 수요를 더욱 촉진했다.[46][47] 이러한 모델들은 챗봇, 콘텐츠 생성 및 코드 생성과 같은 다양한 응용 분야에서 사용되어 AI 시스템의 광범위한 기능을 보여주었다.[48] GPT-3 출시 당시 GPT-2는 여전히 세계에서 가장 강력한 오픈 소스 언어 모델이었으며, EleutherAI가 2021년에 GPT-Neo[49] 및 GPT-J[49][50]를 훈련하고 출시하게 만들었다.

2022년 2월 EleutherAI는 GPT-NeoX-20B를 출시하여 Meta의 FairSeq Dense 13B 모델이 2021년 말에 GPT-J를 넘어선 이후로 세계에서 가장 강력한 오픈 소스 언어 모델이라는 타이틀을 되찾았다.[51] 2022년에는 Meta의 OPT[52] 및 Galactica,[53][54] BigScience Research Workshop의 BLOOM,[55][56] 및 칭화대학교의 GLM을 포함한 다양한 비오픈 소스 라이선스 하의 더 크고 강력한 모델들이 부상했다.

2021년과 2022년에 유럽에서 AI 입법을 둘러싼 초기 협상 중에 오픈 소스 AI에 대한 과도한 규제를 피하기 위한 제안이 이루어졌다.[57] 일부 조직이 "오픈 소스"라는 레이블을 자신들의 작업에 잘못 적용하고 있다는 점을 지적하며, 2022년 오픈 소스 이니셔티브는 1998년에 오픈 소스 소프트웨어에 대한 널리 받아들여지는 표준을 처음 고안했으며, AI 소프트웨어 및 모델의 요구 사항에 맞는 "오픈 소스"의 정의를 전문가들과 함께 연구하기 시작했다. 가장 논란이 되는 측면은 데이터 접근과 관련이 있다. 일부 모델은 민감한 데이터를 기반으로 훈련되므로 공개할 수 없기 때문이다. 2024년에 그들은 오픈 소스 AI 정의 1.0(OSAID 1.0)을 완성했으며, 20개 이상의 조직으로부터 지지를 받았다.[58][59] 이는 데이터를 처리하고 모델을 훈련하며 모델로부터 추론하는 소프트웨어의 전체 공개를 요구한다. 데이터의 경우 "숙련된 사람이 실질적으로 동등한 시스템을 구축할 수 있도록 시스템 훈련에 사용된 데이터에 대한 충분히 상세한 정보"만을 요구한다.[59]

2023년에는 LLaMA 1과 2, MosaicML의 MPT,[60][61] 그리고 미스트랄 AI의 Mistral 및 Mixtral 모델이 출시되었다.

2024년에 Meta는 LLaMA 3.1 405B를 포함한 대규모 AI 모델 컬렉션을 출시했으며, 이는 가장 진보된 폐쇄형 모델과 비교할 만하다.[62] 이 회사는 AI에 대한 접근 방식이 다른 주요 기술 회사들과 달리 오픈 소스라고 주장했다.[62] 오픈 소스 이니셔티브 및 기타 기관들은 Meta가 Llama를 오픈 소스로 설명함에도 불구하고 Llama의 소프트웨어 라이선스가 일부 용도로 사용되는 것을 금지하기 때문에 오픈 소스가 아니라고 주장했다.[63][64][65]

딥시크는 2024년 12월에 V3 LLM을 출시했고, 2025년 1월 20일에는 R1 추론 모델을 MIT 라이선스 하의 오픈 웨이트 모델로 출시했다.[66][67]

2022년 말 OpenAI의 독점 ChatGPT 모델이 출시된 이후, 완전히 개방된(가중치, 데이터, 코드 등) 대형 언어 모델은 극히 일부만이 출시되었다. 이 중에는 OLMo 모델 시리즈가 포함된다.[68][69] 2025년 9월, 스위스 컨소시엄은 Apertus라는 완전히 개방된 모델을 출시하여 이 짧은 목록에 추가했다.[70][71] 이 모델은 8B와 70B의 두 가지 크기로 출시되었다.[72] 라틴 아메리카에 초점을 맞춘 오픈 모델인 Latam-GPT는 이 분야에서 진행 중인 다른 지역적 노력 중 하나이다.[73]

윤리

[편집]

AI 모델 개발과 병행하여 AI 개발에서 윤리적 기준을 보장하는 것에 대한 관심이 증가하고 있다.[74][75] 여기에는 편향, 프라이버시 및 AI 시스템 오용 가능성과 같은 우려 사항을 다루는 것이 포함된다.[74][75] 그 결과, 책임 있는 AI 개발을 위한 프레임워크와 Google이 도입한 모델 카드 개념과 같은 윤리적 고려 사항을 문서화하기 위한 지침이 인기를 얻었지만,[76] 연구에 따르면 의도하지 않은 부정적인 결과를 피하기 위해 계속해서 채택되어야 할 필요가 있다.[77][78]

프레임워크

[편집]

리눅스 재단의 프로젝트인 LF AI & Data 재단은 협업과 혁신을 촉진하고 오픈 소스 프로젝트를 지원함으로써 오픈 소스 AI 환경에 큰 영향을 미쳤다.[79] LF AI & Data는 중립적인 플랫폼을 제공함으로써 개발자, 연구원 및 조직이 최첨단 AI 및 데이터 솔루션을 구축하고 중요한 기술적 문제를 해결하며 윤리적인 AI 개발을 촉진하기 위해 단결한다.[80]

2024년 10월 현재, 이 재단은 북미, 유럽 및 아시아의 77개 회원사로 구성되어 있으며, 엔비디아, 아마존, 인텔, 마이크로소프트와 같은 실리콘밸리 거대 기업을 포함한 다양한 조직이 기여한 67개의 오픈 소스 소프트웨어(OSS) 프로젝트를 호스팅하고 있다.[81] 알리바바, 틱톡, AT&TIBM과 같은 다른 대기업들도 기여했다.[81] NYU, 미시간 대학교 AI 연구소, 컬럼비아 대학교, 펜실베이니아 주립 대학교와 같은 연구 기관도 LF AI & Data 재단의 준회원이다.[81]

2024년에 OSAID가 개발 중인 동안, 리눅스 재단은 AI 시스템 구성 요소에 대한 기준표를 개발하고 있었으며, 모델 개방성 프레임워크(MOF) 초안을 발표했다.[82] MOF는 기계 학습 모델의 완전성과 개방성을 평가하고 분류하기 위한 시스템이다. 여기에는 더 개방적인 것부터 덜 개방적인 것까지 세 가지 개방성 클래스가 포함된다: 클래스 I: 오픈 사이언스 모델; 클래스 II: 오픈 툴링 모델; 클래스 III: 오픈 모델.[82][83] 리눅스 재단은 OSAID 개발에 참여했으며, OSAID는 동일한 구성 요소 기준표를 채택했다.[84]

2022년 9월, Meta가 기부한 널리 사용되는 PyTorch 딥러닝 프레임워크를 감독하기 위해 PyTorch 재단이 설립되었다.[85] 재단의 임무는 PyTorch와 통합된 오픈 소스, 공급업체 중립 프로젝트의 생태계를 조성하고 유지하여 AI 도구 채택을 촉진하고, 최첨단 도구, 라이브러리 및 기타 구성 요소에 대한 접근을 민주화하여 이러한 혁신을 모든 사람이 접근할 수 있도록 하는 것이다.[86]

PyTorch 재단은 또한 비즈니스 및 기술 거버넌스를 분리하여 PyTorch 프로젝트는 기술 거버넌스 구조를 유지하고, 재단은 자금 조달, 호스팅 비용, 이벤트 및 프로젝트 웹 사이트, GitHub 저장소, 소셜 미디어 계정과 같은 자산 관리를 처리하여 개방형 커뮤니티 거버넌스를 보장한다.[86] 재단 설립 시, 초기 회원사인 AMD, 아마존 웹 서비스, 구글 클라우드, 허깅 페이스, IBM, 인텔, Meta, 마이크로소프트 및 엔비디아의 대표들로 구성된 이사회를 구성했다.[86]

응용 분야

[편집]

자연어 처리

[편집]

오픈 소스 AI는 대형 언어 모델 (LLM)의 개발 및 채택을 지원했다. OpenAI의 GPT 시리즈와 같은 독점 모델이 대화형 시스템 및 자동화된 콘텐츠 생성과 같은 응용 분야에서 가능한 것을 재정의한 반면, 완전 오픈 소스 모델도 상당한 발전을 이루었다. Google의 BERT는 엔티티 인식 및 언어 번역과 같은 작업에 널리 사용되는 오픈 소스 모델로, NLP에서 다재다능한 도구로 자리매김했다.[87] 이러한 오픈 소스 LLM은 고급 언어 기술에 대한 접근을 민주화하고 독점 시스템에 대한 의존도를 줄였다.[88]

기계 번역

[편집]

Hugging Face의 MarianMT는 광범위한 언어 쌍을 지원하는 기계 번역의 한 예이다.[89] 또 다른 주목할 만한 모델은 OpenNMT이다.[90] 이러한 오픈 소스 모델과 함께 유럽의회 말뭉치 및 OPUS를 포함한 WMT (Workshop on Machine Translation) 데이터 세트와 같은 오픈 소스 데이터 세트가 이 분야에 기여하며[91][92] 개발자들이 특정 언어에 대한 모델을 훈련하고 미세 조정하는 데 도움을 준다.[91]

컴퓨터 비전 모델

[편집]

OpenCV와 같은 라이브러리는 이미지 인식, 동작 추적 및 얼굴 감지와 같은 실시간 컴퓨터 비전 응용 프로그램을 지원한다.[93][94] 원래 인텔에서 개발한 OpenCV는 컴퓨터 비전을 위한 가장 인기 있는 라이브러리 중 하나가 되었다.[94][93] YOLO (You Only Look Once) 및 Detectron2를 포함한 다른 오픈 소스 컴퓨터 비전 모델도 유사한 기능을 제공한다.[95][96]

이전 세대의 컴퓨터 비전 모델은 컨볼루션 레이어를 통해 이미지 데이터를 처리했지만, 새로운 세대의 컴퓨터 비전 모델은 비전 트랜스포머를 사용한다.[97] 이는 이미지를 작은 패치로 분할하여 이미지에서 가장 관련성이 높은 영역을 식별하며[97] 일반적으로 더 정확한 결과를 생성한다.[98]

로봇공학

[편집]

오픈 소스 인공지능은 학계와 산업계 모두에서 유연하고 확장 가능한 개발 환경을 제공함으로써 로봇공학에 상당한 영향을 미쳤다.[99] 로봇 운영체제 (ROS)[100]는 개발자들이 다양한 하드웨어 플랫폼과 로봇 아키텍처에서 작업하는 데 사용하는 프레임워크의 한 예이다.[99] 가제보는 실제 배포 전에 가상 환경에서 로봇 시스템을 테스트하는 데 사용되는 또 다른 오픈 소스 로봇 시뮬레이션 소프트웨어이다.[101]

보건분야

[편집]

의료 산업에서 오픈 소스 AI는 진단, 환자 관리개인 맞춤형 치료 옵션에 사용되었다.[102] 오픈 소스 라이브러리는 종양 감지와 같은 작업을 위한 의료 영상 분야에서 사용되어 진단 과정의 속도와 정확성을 향상시켰다.[103][102] 또한, 화학 및 생물학 응용 분야에 특별히 맞춰진 오픈 소스 라이브러리인 OpenChem은 약물 발견을 위한 예측 모델 개발을 가능하게 하여 연구자들이 치료를 위한 잠재적 화합물을 식별하는 데 도움을 준다.[104]

군사

[편집]

Meta가 오픈 소스로 설명한 Meta의 Llama 모델은 중국 인민해방군 (PLA)과 제휴한 중국 연구자들의 무단 개조가 드러난 후 록히드 마틴오라클과 같은 미국 국방 계약업체에 채택되었다.[105][106] 오픈 소스 이니셔티브 및 기타 기관들은 Llama의 라이선스에 비미국 군사적 사용을 포함한 사용 사례를 금지하는 이용 목적 제한 방침이 포함되어 있기 때문에 Meta가 Llama를 오픈 소스로 설명한 것에 대해 이의를 제기했다.[65] 중국 연구자들은 Llama의 초기 버전을 사용하여 군사 정보 및 의사 결정에 최적화된 ChatBIT와 같은 도구를 개발했으며, 이에 Meta는 국가 안보를 위해 기술이 전략적으로 사용될 수 있도록 미국 계약업체와의 파트너십을 확장했다.[106] 이러한 응용 분야에는 이제 물류, 유지 보수 및 사이버 보안 강화가 포함된다.[106]

이점

[편집]

접근의 민주화

[편집]

오픈 소스 AI는 최첨단 도구에 대한 접근을 민주화하여 자원이 부족할 수 있는 개인 및 소규모 조직의 진입 장벽을 낮춘다.[107] 이러한 기술을 자유롭게 사용할 수 있도록 함으로써 오픈 소스 AI는 개발자들이 재정적 제약으로 인해 접근하기 어려웠던 AI 솔루션을 혁신하고 만들 수 있도록 하여 독립 개발자, 연구원, 소규모 조직 및 스타트업이 독점 소프트웨어 라이선스의 재정적 부담 없이 고급 AI 모델을 활용할 수 있도록 한다.[107] 이러한 경제성은 개발자들이 기존 모델을 수정하여 고유한 요구 사항을 충족할 수 있으므로 틈새 또는 전문화된 응용 분야에서 혁신을 장려한다.[107][108]

협업 및 더 빠른 발전

[편집]

코드, 데이터 및 연구 결과를 공유함으로써 오픈 소스 AI는 집단적 문제 해결 및 혁신을 가능하게 한다.[108] 텐서플로 및 PyTorch와 같은 프레임워크 개발에서 볼 수 있는 대규모 협업은 기계 학습 (ML) 및 딥 러닝 분야의 발전을 가속화했다.[109]

이러한 플랫폼의 오픈 소스 특성은 또한 전 세계의 기여자(contributor)들이 기존 도구에 대한 수정 및 개선 사항을 제안할 수 있으므로 빠른 반복 및 개선을 용이하게 한다.[109][24] ML 및 딥 러닝 내의 직접적인 개선을 넘어 이러한 협업은 공유된 지식과 전문 지식이 결합됨에 따라 AI 제품의 더 빠른 발전으로 이어질 수 있다.[24][108]

공평한 개발

[편집]

개발 프로세스의 개방성은 다양한 기여를 장려하여 소외된 그룹도 AI의 미래를 형성할 수 있도록 한다. 이러한 포용성은 더욱 공평한 개발 환경을 조성할 뿐만 아니라 더 큰 이윤 중심의 기업들이 간과할 수 있는 편향을 해결하는 데 도움이 된다.[110] 다양한 관점의 기여를 통해 오픈 소스 AI는 전 세계 커뮤니티에 더 공정하고 책임감 있으며 영향력 있는 기술을 만들 잠재력을 가지고 있다.[110]

투명성과 불투명성

[편집]
디지털 의학에서 AI 투명성의 중요성에 대한 비디오

오픈 소스 AI의 한 가지 주요 이점은 폐쇄형 대안과 비교하여 제공하는 향상된 투명성이다.[111] 오픈 소스 모델을 통해 기본 알고리즘과 코드를 검사할 수 있으므로 책임감을 높이고 개발자가 모델이 결론에 도달하는 방식을 이해하는 데 도움이 된다.[13] 또한 Llama 및 스테이블 디퓨전과 같은 오픈 웨이트 모델을 통해 개발자는 모델 매개변수에 직접 접근할 수 있어 응용 분야에서 편향을 줄이고 공정성을 높이는 데 도움이 될 수 있다.[13] 이러한 투명성은 특히 의료, 형사 사법 및 금융과 같은 중요한 응용 분야에서 AI 시스템이 내린 결정의 결과가 상당할 수 있는 경우 (그러나 우려 사항 섹션에서 언급된 특정 위험을 초래할 수도 있음) 인간이 읽을 수 있는 출력을 가진 시스템, 즉 "설명 가능한 AI"를 생성하는 데 도움이 될 수 있다.[112]

개인정보 보호 및 독립성

[편집]

Nature 사설은 의료 서비스가 언제든지 중단될 수 있고 평가하기 어렵고 환자 프라이버시를 위협할 수 있는 AI 모델에 의존하게 될 수 있다고 제안한다.[8] 저자들은 전 세계의 의료 기관, 학술 연구원, 임상의, 환자 및 기술 기업이 협력하여 기본 코드와 기본 모델에 쉽게 접근할 수 있고 자체 데이터 세트로 자유롭게 미세 조정할 수 있는 의료용 오픈 소스 모델을 구축해야 한다고 제안한다.[8]

우려 사항

[편집]

품질 및 보안

[편집]

현재 오픈 소스 모델은 대부분의 작업에서 폐쇄형 모델보다 성능이 떨어지지만, 오픈 소스 모델은 격차를 좁히기 위해 더 빠르게 개선되고 있다.[113]

모델의 오픈 소스 개발은 이론적인 위험을 가질 수 있다고 여겨져 왔다. 일단 모델이 공개되면 심각한 보안 문제가 감지되더라도 롤백하거나 업데이트할 수 없다.[4] 예를 들어, 오픈 소스 AI는 옴진리교와 같은 바이오테러리즘 그룹이 AI 모델의 파인 튜닝 및 기타 안전 장치를 제거하여 AI가 더 파괴적인 테러 계획을 개발하는 데 도움을 줄 수 있도록 허용할 수 있다.[114] 실제 테러 계획을 개발하는 데 주요 장애물은 필요한 재료와 장비에 대한 엄격한 제한에 있다.[4] 또한, AI 발전의 빠른 속도는 오래된 모델을 사용하는 것을 덜 매력적으로 만들며, 이는 공격에 더 취약하지만 능력도 떨어진다.[4]

2024년 7월, 미국은 모델 가중치 공개를 제한할 충분한 증거를 찾지 못했다고 명시한 대통령 보고서를 발표했다.[115]

공평성, 사회적 및 윤리적 함의

[편집]

인공지능이 의도치 않게 편향된 제품을 만들어낸 수많은 사례가 있었다. 주목할 만한 예로는 아프리카계 미국인의 미래 범죄 및 재범 위험을 백인보다 높게 예측하는 AI 소프트웨어, 비원어민 화자에게 성능이 떨어지는 음성 인식 모델, 여성과 피부색이 어두운 사람에게 성능이 떨어지는 안면 인식 모델 등이 있다.[116][110][117]

연구원들은 또한 오픈 소스 인공지능이 기존의 보안 및 윤리적 문제로 인해 비판을 받아왔다. Bandit, FlawFinder 및 Semgrep과 같은 취약점 스캐너를 사용하여 허깅 페이스깃허브에 있는 100,000개 이상의 오픈 소스 모델을 분석한 결과 30% 이상의 모델이 심각한 취약점을 가지고 있는 것으로 나타났다.[118] 또한, 폐쇄형 모델은 일반적으로 오픈 소스 모델보다 안전 위험이 적다.[4] 오픈 소스 모델을 증강할 수 있는 자유는 개발자들이 GPT4-Chan과 같이 윤리적 지침 없이 모델을 출시하게 만들었다.[4]

데이터 품질

[편집]

편향된 데이터, 모델 생성의 결함, 이러한 결과의 가능성을 인식하거나 계획하지 못하는 등의 원인으로 인해 불공평하고 편향된 AI 결과로 이어질 수 있는 수많은 시스템적 문제가 존재한다.[78] 연구에서 강조되었듯이, 데이터 세트에서 특정 인구 통계 그룹의 과소 대표와 같은 낮은 데이터 품질과 데이터 큐레이션 과정에서 발생하는 편향은 왜곡된 모델 출력으로 이어진다.[117]

오픈 소스 AI 프로젝트에 대한 연구에 따르면 데이터 품질 검증에 실패했으며, 프로젝트의 28% 미만이 문서에 데이터 품질 문제를 포함했다.[78] 이 연구는 또한 개발자들이 모델의 윤리적 함의에 충분한 강조를 두지 않으며, 개발자들이 윤리적 함의를 고려할 때에도 특정 지표 (모델의 동작)에 과도하게 초점을 맞추고 다른 지표 (데이터 품질 및 위험 완화 단계)를 간과하는 더 광범위한 우려를 보여주었다.[78]

투명성 및 "블랙박스"

[편집]

안전 및 편향과 같은 문제와 관련하여 많은 AI 시스템의 또 다른 주요 우려 사항은 투명성 부족이다.[117][119] 많은 오픈 소스 AI 모델은 "블랙박스"로 작동하며, 의사 결정 과정을 생성자조차 쉽게 이해할 수 없다.[117][120] 이러한 해석 가능성 부족은 책임감을 방해하여 모델이 특정 결정을 내린 이유를 식별하거나 다양한 그룹에 걸쳐 공정하게 작동하는지 확인하기 어렵게 만들 수 있다.[117]

또한, AI 모델이 폐쇄형(독점형)일 경우, 널리 채택된 수많은 안면 인식 시스템의 경우와 같이 편향된 시스템이 간과될 수 있다.[117] 이러한 숨겨진 편향은 독점 시스템이 AI가 내린 결정에 대한 신뢰 구간과 같이 이러한 편향을 드러내는 데 도움이 될 수 있는 결정 과정에 대해 아무것도 공개하지 않을 때 지속될 수 있다.[117] 특히 의료 분야에서 사용되는 시스템의 경우, 시스템의 추론을 보고 이해하거나 답변이 어떻게 얻어졌는지에 대한 "[정확한] 설명"을 얻는 것은 "신뢰와 투명성을 보장하는 데 중요하다".[121]

개선을 위한 프레임워크

[편집]

이러한 문제에 대응하기 위한 노력은 AI의 윤리적 개발 및 배포를 안내하는 구조화된 문서화 프레임워크의 개발로 이어졌다.

  • 모델 카드: Google 연구 논문에서 소개된 이 문서는 AI 모델의 의도된 용도, 제한 사항 및 다양한 인구 통계에 걸친 성능 지표에 대한 투명성을 제공한다.[122][76] 이들은 윤리적 고려 사항을 강조하고 정보에 입각한 사용을 용이하게 하는 표준화된 도구 역할을 한다.[122][76] 아직 비교적 새로운 개념이지만, Google은 이 프레임워크가 AI 투명성을 높이는 데 중요한 역할을 할 것이라고 믿는다.[76]
  • 측정 모델링: 이 방법은 사회 과학적 관점을 통해 질적 및 양적 방법을 결합하여 개발자가 AI 시스템이 주장하는 것을 정확하게 측정하는지 확인하는 데 도움이 되는 프레임워크를 제공한다. 이 프레임워크는 재검사 신뢰도 ("구조 신뢰도") 및 모델이 모델링하려는 것을 측정하는지 여부 ("구조 타당성")라는 두 가지 핵심 개념에 중점을 둔다. 이러한 개념을 통해 이 모델은 개발자가 직접 측정할 수 없는 추상적인 아이디어 (예: 사회경제적 지위)를 구체적이고 측정 가능한 구성 요소로 분해하는 데 도움을 주며, 편향으로 이어질 수 있는 오류 또는 불일치를 확인한다. 이러한 가정을 명확히 함으로써 이 프레임워크는 더 공정하고 신뢰할 수 있는 AI 시스템을 만드는 데 도움이 된다.[116]
  • 데이터세트를 위한 데이터시트: 이 프레임워크는 데이터세트의 동기, 구성, 수집 과정 및 권장 사용 사례를 문서화하는 것을 강조한다.[123] 데이터세트의 수명 주기를 자세히 설명함으로써 데이터시트는 사용자가 데이터세트의 적절성과 제한 사항을 평가할 수 있도록 한다.[123]
  • ChatGPT 개방: 명령어 튜닝 LLM의 개방성 추적: 텍스트 생성 모델의 개방성을 평가하는 커뮤니티 주도형 공개 리소스이다.[124]
  • 모델 개방성 프레임워크: 이 새로운 접근 방식은 모델과 데이터세트의 접근성을 중심으로 투명한 AI 개발 원칙을 포함하여 감사 및 책임성을 가능하게 한다.[125]
  • 유럽 오픈 소스 AI 지수: 이 지수는 생성형 AI 시스템 및 공급업체의 모델 개방성, 라이선스 및 EU 규제에 대한 정보를 수집한다. 이는 네이메헌 랏바우트 대학교에서 호스팅하는 비영리 공공 리소스이다.[126]

AI 사용이 증가함에 따라 AI 투명성을 높이고 모델 편향을 줄이는 것이 점점 더 강조되는 우려 사항이 되었다.[112] 이러한 프레임워크는 개발자와 이해 관계자가 편향을 식별하고 완화하여 AI 시스템의 공정성과 포용성을 증진하는 데 도움이 될 수 있다.[116][112]

같이 보기

[편집]

각주

[편집]
  1. 1 2 The Open Source AI Definition – 1.0 (미국 영어). Open Source Initiative. 2025년 3월 31일에 원본 문서에서 보존된 문서. 2024년 11월 14일에 확인함.
  2. Licenses (미국 영어). Open Source Initiative. 2018년 2월 10일에 원본 문서에서 보존된 문서. 2024년 11월 14일에 확인함.
  3. 1 2 Hassri, Myftahuddin Hazmi; Man, Mustafa (2023년 12월 7일). The Impact of Open-Source Software on Artificial Intelligence (영어). Journal of Mathematical Sciences and Informatics 3. doi:10.46754/jmsi.2023.12.006. ISSN 2948-3697.
  4. 1 2 3 4 5 6 7 8 Eiras, Francisco; Petrov, Aleksandar; Vidgen, Bertie; Schroeder, Christian; Pizzati, Fabio; Elkins, Katherine; Mukhopadhyay, Supratik; Bibi, Adel; Purewal, Aaron (2024년 5월 29일). Risks and Opportunities of Open-Source Generative AI. arXiv:2405.08597 [cs.LG].
  5. 1 2 Solaiman, Irene (2023년 5월 24일). Generative AI Systems Aren't Just Open or Closed Source. Wired. 2023년 11월 27일에 원본 문서에서 보존된 문서. 2023년 7월 20일에 확인함.
  6. Castelvecchi, Davide (2023년 6월 29일). Open-source AI chatbots are booming — what does this mean for researchers?. Nature 618. 891–892쪽. Bibcode:2023Natur.618..891C. doi:10.1038/d41586-023-01970-6. PMID 37340135.
  7. Thummadi, Babu Veeresh (2021). Artificial Intelligence (AI) Capabilities, Trust and Open Source Software Team Performance. Denis Dennehy; Anastasia Griva; Nancy Pouloudi; Yogesh K. Dwivedi; Ilias Pappas; Matti Mäntymäki (편집). Responsible AI and Analytics for an Ethical and Inclusive Digitized Society. 20th International Federation of Information Processing WG 6.11 Conference on e-Business, e-Services and e-Society, Galway, Ireland, September 1–3, 2021. Lecture Notes in Computer Science. Springer. 629–640쪽. doi:10.1007/978-3-030-85447-8_52. ISBN 978-3-030-85446-1.
  8. 1 2 3 Toma, Augustin; Senkaiahliyan, Senthujan; Lawler, Patrick R.; Rubin, Barry; Wang, Bo (December 2023). Generative AI could revolutionize health care — but not if control is ceded to big tech (영어). Nature 624. 36–38쪽. Bibcode:2023Natur.624...36T. doi:10.1038/d41586-023-03803-y. PMID 38036861.
  9. 1 2 Widder, David Gray; Whittaker, Meredith; West, Sarah Myers (November 2024). Why 'open' AI systems are actually closed, and why this matters (영어). Nature 635. 827–833쪽. Bibcode:2024Natur.635..827W. doi:10.1038/s41586-024-08141-1. ISSN 1476-4687. PMID 39604616.
  10. What is open source AI and why is profit so important to the debate? (영어). euronews. 2024년 2월 20일. 2024년 11월 28일에 확인함.
  11. 1 2 Liesenfeld, Andreas; Lopez, Alianda; Dingemanse, Mark (2023년 7월 19일). Opening up ChatGPT: Tracking openness, transparency, and accountability in instruction-tuned text generators. Proceedings of the 5th International Conference on Conversational User Interfaces. Association for Computing Machinery. 1–6쪽. arXiv:2307.05532. doi:10.1145/3571884.3604316. ISBN 979-8-4007-0014-9.
  12. Liesenfeld, Andreas; Dingemanse, Mark (2024년 6월 5일). Rethinking open source generative AI: Open washing and the EU AI Act. The 2024 ACM Conference on Fairness, Accountability, and Transparency. Association for Computing Machinery. 1774–1787쪽. doi:10.1145/3630106.3659005. ISBN 979-8-4007-0450-5.
  13. 1 2 3 White, Matt; Haddad, Ibrahim; Osborne, Cailean; Xiao-Yang Yanglet Liu; Abdelmonsef, Ahmed; Varghese, Sachin; Arnaud Le Hors (2024). The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence. arXiv:2403.13784 [cs.LG].
  14. The Open Source AI Definition — by The Open Source Initiative. opensource.org. 2024년 11월 28일에 확인함.
  15. We finally have a definition for open-source AI (영어). MIT Technology Review. 2024년 11월 28일에 확인함.
  16. Robison, Kylie (2024년 10월 28일). Open-source AI must reveal its training data, per new OSI definition (영어). The Verge. 2024년 11월 28일에 확인함.
  17. Open Weights: not quite what you've been told (미국 영어). Open Source Initiative. 2025년 9월 23일에 확인함.
  18. OpenAI releases lower-cost models to rival Meta, Mistral and DeepSeek (영어). CNBC. 2025년 8월 5일. 2025년 9월 23일에 확인함.
  19. The Evolution of Open Source: From Software to AI: Argano. argano.com. 2024년 11월 24일에 확인함.
  20. Staff, Kyle Daigle, GitHub (2023년 11월 8일). Octoverse: The state of open source and rise of AI in 2023 (미국 영어). The GitHub Blog. 2024년 11월 24일에 확인함.
  21. Appendix I: A Short History of AI | One Hundred Year Study on Artificial Intelligence (AI100) (영어). ai100.stanford.edu. 2024년 11월 24일에 확인함.
  22. Kautz, Henry (2022년 3월 31일). The Third AI Summer: AAAI Robert S. Engelmore Memorial Lecture (영어). AI Magazine 43. 105–125쪽. doi:10.1002/aaai.12036. ISSN 2371-9621.
  23. Why Software Should Be Free - GNU Project - Free Software Foundation. www.gnu.org. 2024년 12월 1일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
  24. 1 2 3 The Power of Collaboration: How Open-Source Projects are Advancing AI.
  25. Staff, Kyle Daigle, GitHub (2023년 11월 8일). Octoverse: The state of open source and rise of AI in 2023 (미국 영어). The GitHub Blog. 2024년 11월 24일에 확인함.
  26. Code, Linux (2024년 11월 3일). A Brief History of Open Source (미국 영어). TheLinuxCode. 2024년 12월 3일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
  27. Topic: (/). www.cs.cmu.edu. 2025년 9월 11일에 확인함.
  28. Priya (2024년 3월 28일). The Evolution of Open Source AI Libraries: From Basement Brawls to AI All-Stars (영어). TheGen.AI. 2024년 11월 24일에 확인함.
  29. Pulli, Kari; Baksheev, Anatoly; Kornyakov, Kirill; Eruhimov, Victor (2012년 4월 1일). Realtime Computer Vision with OpenCV. ACM Queue 10. 40:40–40:56쪽. doi:10.1145/2181796.2206309.
  30. Adrian Kaehler; Gary Bradski (2016년 12월 14일). Learning OpenCV 3: Computer Vision in C++ with the OpenCV Library. O'Reilly Media. 26ff쪽. ISBN 978-1-4919-3800-3.
  31. About us (영어). scikit-learn. 2020년 11월 6일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
  32. Testimonials (영어). scikit-learn. 2020년 5월 6일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
  33. Makkar, Akashdeep (2021년 6월 9일). What Is Scikit-learn and why use it for machine learning? (미국 영어). Data Courses. 2024년 11월 24일에 확인함.
  34. Bergstra, J.; O. Breuleux; F. Bastien; P. Lamblin; R. Pascanu; G. Desjardins; J. Turian; D. Warde-Farley; Y. Bengio (2010년 6월 30일). Theano: A CPU and GPU Math Expression Compiler (PDF). Proceedings of the Python for Scientific Computing Conference (SciPy) 2010.
  35. Mewawalla, Rahul (2024년 10월 31일). The democratization of AI: Shaping our collective future. Fast Company.
  36. Costa, Carlos J.; Aparicio, Manuela; Aparicio, Sofia; Aparicio, Joao Tiago (January 2024). The Democratization of Artificial Intelligence: Theoretical Framework (영어). Applied Sciences 14. 8236쪽. doi:10.3390/app14188236. hdl:10362/173131. ISSN 2076-3417.
  37. Singh, Kanwar Bharat; Arat, Mustafa Ali (2019). Deep Learning in the Automotive Industry: Recent Advances and Application Examples. arXiv:1906.08834 [cs.LG].
  38. Sushumna, Aparna (2024년 6월 10일). Deep Learning in NLP and Image Recognition (미국 영어). 5DataInc. 2024년 11월 25일에 확인함.
  39. Lee, Timothy B. (2024년 11월 11일). How a stubborn computer scientist accidentally launched the deep learning boom (영어). 아르스 테크니카. 2025년 9월 11일에 확인함.
  40. Mikolov, Tomas; Chen, Kai; Corrado, Greg; Dean, Jeffrey (2013년 1월 16일). Efficient Estimation of Word Representations in Vector Space. arXiv:1301.3781 [cs.CL].
  41. Mikolov, Tomas; Sutskever, Ilya; Chen, Kai; Corrado, Greg S.; Dean, Jeff (2013). Distributed representations of words and phrases and their compositionality. 신경 정보 처리 시스템의 발전. arXiv:1310.4546. Bibcode:2013arXiv1310.4546M.
  42. Implementation of the GloVe model for learning word representations, Stanford NLP, 2025년 7월 24일, 2025년 7월 24일에 확인함
  43. 1 2 Xiang, Chloe (2023년 2월 28일). OpenAI Is Now Everything It Promised Not to Be: Corporate, Closed-Source, and For-Profit (미국 영어). VICE. 2024년 11월 14일에 확인함.
  44. OpenAI is giving Microsoft exclusive access to its GPT-3 language model (영어). MIT 테크놀로지 리뷰. 2021년 2월 5일에 원본 문서에서 보존된 문서. 2024년 12월 8일에 확인함.
  45. API platform (미국 영어). openai.com. 2024년 12월 8일에 확인함.
  46. Daigle, Kyle (2023년 11월 8일). Octoverse: The state of open source and rise of AI in 2023 (미국 영어). The GitHub Blog. 2025년 1월 21일에 원본 문서에서 보존된 문서. 2024년 11월 24일에 확인함.
  47. GPT-3 powers the next generation of apps. 2024년 3월 29일.
  48. Generative AI vs. Large Language Models (LLMs): What's the Difference? (영어). appian.com. 2024년 11월 25일에 확인함.
  49. 1 2 GPT-3's free alternative GPT-Neo is something to be excited about (미국 영어). 벤추어비트. 2021년 5월 15일. 2023년 3월 9일에 원본 문서에서 보존된 문서. 2023년 4월 14일에 확인함.
  50. Why Release a Large Language Model? (미국 영어). EleutherAI. 2021년 6월 2일.
  51. EleutherAI: When OpenAI Isn't Open Enough (미국 영어). IEEE Spectrum. 2021년 6월 2일.
  52. Heaven, Will (2022년 5월 3일). Meta has built a massive new language AI—and it's giving it away for free. MIT 테크놀로지 리뷰. 2023년 12월 26일에 확인함.
  53. Heaven, Will (2022년 11월 18일). Why Meta's latest large language model survived only three days online. MIT 테크놀로지 리뷰. 2023년 12월 26일에 확인함.
  54. Goldman, Sharon (2022년 11월 18일). [venturebeat.com/ai/what-meta-learned-from-galactica-the-doomed-model-launched-two-weeks-before-chatgpt/ What Meta learned from Galactica, the doomed model launched two weeks before ChatGPT] |url= 값 확인 필요 (도움말). 벤추어비트. 2025년 7월 21일에 확인함.
  55. Heikkilä, Melissa (2022년 7월 12일). BLOOM: Inside the radical new project to democratize AI. MIT 테크놀로지 리뷰. 2023년 12월 26일에 확인함.
  56. Release of largest trained open-science multilingual language model ever. 프랑스 국립과학연구센터. 2022년 7월 12일. 2023년 12월 26일에 확인함.
  57. AI Act and Open Source (미국 영어). Open Future. 2025년 7월 24일에 확인함.
  58. Vaughan-Nichols, Steven (2024년 10월 24일). We have an official open-source AI definition now, but the fight is far from over (영어). ZDNET. 2025년 7월 24일에 확인함.
  59. 1 2 The Open Source AI Definition – 1.0 (미국 영어). Open Source Initiative. 2025년 7월 24일에 확인함.
  60. Nunez, Michael (2023년 6월 22일). MosaicML challenges OpenAI with its new open-source language model. 벤추어비트. 2025년 7월 21일에 확인함.
  61. Chen, Joanne (2023년 7월 19일). MosaicML launches MPT-7B-8K, a 7B-parameter open-source LLM with 8k context length. 벤추어비트. 2025년 7월 21일에 확인함.
  62. 1 2 Mirjalili, Seyedali (2024년 8월 1일). Meta just launched the largest 'open' AI model in history. Here's why it matters (미국 영어). The Conversation. 2024년 11월 14일에 확인함.
  63. Waters, Richard (2024년 10월 17일). Meta under fire for 'polluting' open-source. 파이낸셜 타임스. 2024년 11월 14일에 확인함.
  64. Edwards, Benj (2023년 7월 18일). Meta launches Llama 2, a source-available AI model that allows commercial applications. 아르스 테크니카. 2023년 11월 7일에 원본 문서에서 보존된 문서. 2024년 12월 14일에 확인함.
  65. 1 2 Meta offers Llama AI to US government for national security. CIO. 2024년 11월 5일. 2024년 12월 14일에 원본 문서에서 보존된 문서. 2024년 12월 14일에 확인함.
  66. How a top Chinese AI model overcame US sanctions. 2025년 1월 25일에 원본 문서에서 보존된 문서. 2025년 2월 3일에 확인함.
  67. Guo, Daya 외 (2025년 9월 18일). DeepSeek-R1 incentivizes reasoning in LLMs through reinforcement learning. Nature 645. 633–638쪽. Bibcode:2025Natur.645..633G. doi:10.1038/s41586-025-09422-z. PMC 12443585 |pmc= 값 확인 필요 (도움말). PMID 40962978.
  68. Groeneveld, Dirk; Beltagy, Iz; Walsh, Pete; Bhagia, Akshita; Kinney, Rodney; Tafjord, Oyvind; Jha, Ananya Harsh; Ivison, Hamish; Magnusson, Ian (2024년 6월 7일), OLMo: Accelerating the Science of Language Models, arXiv:2402.00838
  69. OLMo, Team; Walsh, Pete; Soldaini, Luca; Groeneveld, Dirk; Lo, Kyle; Arora, Shane; Bhagia, Akshita; Gu, Yuling; Huang, Shengyi (2025년 1월 15일), 2 OLMo 2 Furious, arXiv:2501.00656
  70. Welle, Elissa (2025년 9월 3일). Switzerland releases an open-weight AI model (미국 영어). The Verge. 2025년 10월 8일에 확인함.
  71. Allen, Matthew (2025년 9월 2일). Switzerland launches transparent ChatGPT alternative (영어). SWI swissinfo.ch. 2025년 10월 8일에 확인함.
  72. Hernández-Cano, Alejandro; Hägele, Alexander; Huang, Allen Hao; Romanou, Angelika; Solergibert, Antoni-Joan; Pasztor, Barna; Messmer, Bettina; Garbaya, Dhia; Ďurech, Eduard Frank (2025년 9월 17일), Apertus: Democratizing Open and Compliant LLMs for Global Language Environments, arXiv:2509.14233
  73. Lagos, Anna. Latam-GPT: The Free, Open Source, and Collaborative AI of Latin America (미국 영어). Wired. ISSN 1059-1028. 2025년 10월 8일에 확인함.
  74. 1 2 Gujar, Praveen. Council Post: Building Trust In AI: Overcoming Bias, Privacy And Transparency Challenges (영어). Forbes. 2024년 11월 25일에 확인함.
  75. 1 2 Ethical Issues in Open-Source Intelligence | Restackio (영어). www.restack.io. 2024년 12월 1일에 원본 문서에서 보존된 문서. 2024년 11월 25일에 확인함.
  76. 1 2 3 4 Google Model Cards. modelcards.withgoogle.com. 2024년 11월 25일에 확인함.
  77. Mitchell, Margaret; Wu, Simone; Zaldivar, Andrew; Barnes, Parker; Vasserman; Hutchinson, Ben; Spitzer, Elena; Raji, Inioluwa Deborah; Gebru, Timnit (2018년 10월 5일). Model Cards for Model Reporting (영어). 220–229쪽. arXiv:1810.03993. doi:10.1145/3287560.3287596. ISBN 978-1-4503-6125-5.
  78. 1 2 3 4 Gao, Haoyu; Zahedi, Mansooreh; Treude, Christoph; Rosenstock, Sarita; Cheong, Marc (2024년 6월 26일). Documenting Ethical Considerations in Open Source AI Models (영어). arXiv:2406.18071 [cs.SE].
  79. Projects – LFAI & Data (미국 영어). lfaidata.foundation. 2024년 12월 8일에 확인함.
  80. LFAI & Data – Linux Foundation Project (미국 영어). lfaidata.foundation. 2023년 10월 29일에 원본 문서에서 보존된 문서. 2024년 12월 8일에 확인함.
  81. 1 2 3 LF AI & Data Landscape (영어). LF AI & Data Landscape. 2024년 11월 14일에 확인함.
  82. 1 2 ZDNet: "We're a big step closer to defining open source AI - but not everyone is happy" (미국 영어). CNCF. 2024년 8월 23일. 2025년 7월 24일에 확인함.
  83. Introducing the Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency and Usability in AI – LFAI & Data (미국 영어). lfaidata.foundation. 2025년 7월 24일에 확인함.
  84. Cailean Osborne: voices of the Open Source AI Definition (미국 영어). Open Source Initiative. 2024년 7월 18일. 2025년 7월 24일에 확인함.
  85. Announcing the PyTorch Foundation to Accelerate Progress in AI Research (미국 영어). Meta. 2022년 9월 12일. 2024년 11월 14일에 확인함.
  86. 1 2 3 PyTorch Foundation (영어). PyTorch. 2024년 11월 14일에 확인함.
  87. Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (2019년 5월 24일). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv:1810.04805 [cs.CL].
  88. Chang, Yupeng; Wang, Xu; Wang, Jindong; Wu, Yuan; Yang, Linyi; Zhu, Kaijie; Chen, Hao; Yi, Xiaoyuan; Wang, Cunxiang; Wang, Yidong; Ye, Wei; Zhang, Yue; Chang, Yi; Yu, Philip S.; Yang, Qiang (2024년 3월 29일). A Survey on Evaluation of Large Language Models. ACM Trans. Intell. Syst. Technol. 15. 39:1–39:45쪽. arXiv:2307.03109. doi:10.1145/3641289. ISSN 2157-6904.
  89. Junczys-Dowmunt, Marcin; Grundkiewicz, Roman; Dwojak, Tomasz; Hoang, Hieu; Heafield, Kenneth; Neckermann, Tom; Seide, Frank; Germann, Ulrich; Aji, Alham Fikri (2018년 4월 4일). Marian: Fast Neural Machine Translation in C++. arXiv:1804.00344 [cs.CL].
  90. Klein, Guillaume; Kim, Yoon; Deng, Yuntian; Senellart, Jean; Rush, Alexander M. (2017년 3월 6일). OpenNMT: Open-Source Toolkit for Neural Machine Translation. arXiv:1701.02810 [cs.CL].
  91. 1 2 Aulamo, Mikko; Tiedemann, Jörg (September 2019). Hartmann, Mareike; Plank, Barbara (편집). The OPUS Resource Repository: An Open Package for Creating Parallel Corpora and Machine Translation Services. Proceedings of the 22nd Nordic Conference on Computational Linguistics (Turku, Finland: Linköping University Electronic Press). 389–394쪽. 2025년 6월 27일에 원본 문서에서 보존된 문서. 2024년 11월 16일에 확인함.
  92. Koehn, Philipp (2005년 9월 13일). Europarl: A Parallel Corpus for Statistical Machine Translation. Proceedings of Machine Translation Summit X: Papers (Phuket, Thailand). 79–86쪽.
  93. 1 2 Culjak, Ivan; Abram, David; Pribanic, Tomislav; Dzapo, Hrvoje; Cifrek, Mario (2012년 5월 25일). A brief introduction to OpenCV. 제35회 국제 컨벤션 MIPRO 회의록. 1725–1730쪽 IEEE 경유.
  94. 1 2 Pulli, Kari; Baksheev, Anatoly; Kornyakov, Kirill; Eruhimov, Victor (June 2012). Real-time computer vision with OpenCV (영어). ACM 커뮤니케이션즈 55. 61–69쪽. doi:10.1145/2184319.2184337. ISSN 0001-0782 ACM 경유.
  95. Redmon, Joseph; Divvala, Santosh; Girshick, Ross; Farhadi, Ali (2016년 5월 9일). You Only Look Once: Unified, Real-Time Object Detection. arXiv:1506.02640 [cs.CV].
  96. facebookresearch/detectron2, Meta Research, 2024년 11월 16일, 2024년 11월 16일에 원본 문서에서 보존된 문서, 2024년 11월 16일에 확인함
  97. 1 2 Dosovitskiy, Alexey; Beyer, Lucas; Kolesnikov, Alexander; Weissenborn, Dirk; Zhai, Xiaohua; Unterthiner, Thomas; Dehghani, Mostafa; Minderer, Matthias; Heigold, Georg (2021년 6월 3일). An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. arXiv:2010.11929 [cs.CV].
  98. Khan, Salman; Naseer, Muzammal; Hayat, Munawar; Zamir, Syed Waqas; Khan, Fahad Shahbaz; Shah, Mubarak (2022년 1월 31일). Transformers in Vision: A Survey. ACM Computing Surveys 54. 1–41쪽. arXiv:2101.01169. doi:10.1145/3505244. ISSN 0360-0300.
  99. 1 2 Macenski, Steve; Foote, Tully; Gerkey, Brian; Lalancette, Chris; Woodall, William (2022년 5월 25일). Robot Operating System 2: Design, Architecture, and Uses In The Wild. Science Robotics 7. arXiv:2211.07752. doi:10.1126/scirobotics.abm6074. ISSN 2470-9476. PMID 35544605.
  100. M, Quigley (2009). ROS: an open-source Robot Operating System. Proc. Open-Source Software Workshop of the Int'l. Conf. On Robotics and Automation (ICRA), 2009. 2025년 1월 21일에 원본 문서에서 보존된 문서. 2024년 11월 16일에 확인함.
  101. Koenig, N.; Howard, A. (2004). Design and use paradigms for gazebo, an open-source multi-robot simulator. 2004 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (IEEE Cat. No.04CH37566) 3. IEEE. 2149–2154쪽. doi:10.1109/iros.2004.1389727. ISBN 0-7803-8463-6.
  102. 1 2 Esteva, Andre; Robicquet, Alexandre; Ramsundar, Bharath; Kuleshov, Volodymyr; DePristo, Mark; Chou, Katherine; Cui, Claire; Corrado, Greg; Thrun, Sebastian; Dean, Jeff (January 2019). A guide to deep learning in healthcare (영어). Nature Medicine 25. 24–29쪽. doi:10.1038/s41591-018-0316-z. ISSN 1546-170X. PMID 30617335.
  103. Ashraf, Mudasir; Ahmad, Syed Mudasir; Ganai, Nazir Ahmad; Shah, Riaz Ahmad; Zaman, Majid; Khan, Sameer Ahmad; Shah, Aftab Aalam (2021). Prediction of Cardiovascular Disease Through Cutting-Edge Deep Learning Technologies: An Empirical Study Based on TENSORFLOW, PYTORCH and KERAS (영어). Gupta, Deepak; Khanna, Ashish; Bhattacharyya, Siddhartha; Hassanien, Aboul Ella; Anand, Sameer; Jaiswal, Ajay (편집). International Conference on Innovative Computing and Communications. Advances in Intelligent Systems and Computing 1165. Singapore: Springer. 239–255쪽. doi:10.1007/978-981-15-5113-0_18. ISBN 978-981-15-5113-0.
  104. Korshunova, Maria; Ginsburg, Boris; Tropsha, Alexander; Isayev, Olexandr (2021년 1월 25일). OpenChem: A Deep Learning Toolkit for Computational Chemistry and Drug Design (영어). Journal of Chemical Information and Modeling 61. 7–13쪽. doi:10.1021/acs.jcim.0c00971. ISSN 1549-9596. PMID 33393291.
  105. Pomfret, James; Pang, Jessie; Pomfret, James; Pang, Jessie (2024년 11월 1일). Exclusive: Chinese researchers develop AI model for military use on back of Meta's Llama (영어). Reuters. 2024년 11월 16일에 확인함.
  106. 1 2 3 Roth, Emma (2024년 11월 4일). Meta AI is ready for war (영어). The Verge. 2024년 11월 16일에 확인함.
  107. 1 2 3 Democratizing AI | IBM (영어). www.ibm.com. 2024년 11월 5일. 2024년 11월 25일에 확인함.
  108. 1 2 3 Models, A. I. Open Source AI: A look at Open Models (미국 영어). Open Source AI Models. 2024년 11월 25일에 확인함.
  109. 1 2 Dean, Jeffrey (2022년 5월 1일). A Golden Decade of Deep Learning: Computing Systems & Applications (영어). Daedalus 151. 58–74쪽. doi:10.1162/daed_a_01900. ISSN 0011-5266.
  110. 1 2 3 DiChristofano, Alex; Shuster, Henry; Chandra, Shefali; Patwari, Neal (2023년 2월 9일). Global Performance Disparities Between English-Language Accents in Automatic Speech Recognition. arXiv:2208.01157 [cs.CL].
  111. MACHADO, J. (2025). Toward a Public and Secure Generative AI: A Comparative Analysis of Open and Closed LLMs. Conference Paper. arXiv:2505.10603.
  112. 1 2 3 Gujar, Praveen. Council Post: Building Trust In AI: Overcoming Bias, Privacy And Transparency Challenges (영어). Forbes. 2024년 11월 27일에 확인함.
  113. Chen, Hailin; Jiao, Fangkai; Li, Xingxuan; Qin, Chengwei; Ravaut, Mathieu; Zhao, Ruochen; Xiong, Caiming; Joty, Shafiq (2024년 1월 15일). ChatGPT's One-year Anniversary: Are Open-Source Large Language Models Catching up?. arXiv:2311.16989 [cs.CL].
  114. Sandbrink, Jonas (2023년 8월 7일). ChatGPT could make bioterrorism horrifyingly easy (미국 영어). Vox. 2024년 11월 14일에 확인함.
  115. White House says no need to restrict open-source AI, for now (미국 영어). PBS News. 2024년 7월 30일. 2024년 11월 14일에 확인함.
  116. 1 2 3 Jacobs, Abigail Z.; Wallach, Hanna (2021년 3월 12일), Measurement and Fairness, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 375–385쪽, arXiv:1912.05511, doi:10.1145/3442188.3445901, ISBN 978-1-4503-8309-7
  117. 1 2 3 4 5 6 7 Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification (PDF). Proceedings of Machine Learning Research. 2024년 11월 26일에 원본 문서 (PDF)에서 보존된 문서. 2024년 11월 27일에 확인함.
  118. Kathikar, Adhishree; Nair, Aishwarya; Lazarine, Ben (2023). Assessing the Vulnerabilities of the Open-Source Artificial Intelligence (AI) Landscape: A Large-Scale Analysis of the Hugging Face Platform. 2023 IEEE International Conference on Intelligence and Security Informatics (ISI). 1–6쪽. doi:10.1109/ISI58743.2023.10297271. ISBN 979-8-3503-3773-0.
  119. Casper, Stephen; Ezell, Carson; Siegmann, Charlotte; Kolt, Noam; Curtis, Taylor Lynn; Bucknall, Benjamin; Haupt, Andreas; Wei, Kevin; Scheurer, Jérémy; Hobbhahn, Marius; Sharkey, Lee; Krishna, Satyapriya; Von Hagen, Marvin; Alberti, Silas; Chan, Alan; Sun, Qinyi; Gerovitch, Michael; Bau, David; Tegmark, Max; Krueger, David; Hadfield-Menell, Dylan (2024년 6월 3일). Black-Box Access is Insufficient for Rigorous AI Audits. The 2024 ACM Conference on Fairness, Accountability, and Transparency. 2254–2272쪽. doi:10.1145/3630106.3659037. ISBN 979-8-4007-0450-5.
  120. Sharkey, Lee; Chughtai, Bilal; Batson, Joshua; Lindsey, Jack; Wu, Jeff; Bushnaq, Lucius; Goldowsky-Dill, Nicholas; Heimersheim, Stefan; Ortega, Alejandro (2025), Open Problems in Mechanistic Interpretability, arXiv:2501.16496
  121. Gohel, Prashant; Singh, Priyanka; Mohanty, Manoranjan (2021년 7월 12일). Explainable AI: current status and future directions. arXiv:2107.07045 [cs.LG].
  122. 1 2 Mitchell, Margaret; Wu, Simone; Zaldivar, Andrew; Barnes, Parker; Vasserman, Lucy; Hutchinson, Ben; Spitzer, Elena; Raji, Inioluwa Deborah; Gebru, Timnit (2018년 10월 5일). Model Cards for Model Reporting (영어). 220–229쪽. arXiv:1810.03993. doi:10.1145/3287560.3287596. ISBN 978-1-4503-8309-7.
  123. 1 2 Gebru, Timnit; Morgenstern, Jamie; Vecchione, Briana; Vaughan, Jennifer Wortman; Wallach, Hanna; Daumé III, Hal; Crawford, Kate (2021년 12월 1일). Datasheets for Datasets. arXiv:1803.09010 [cs.DB].
  124. Liesenfeld, Andreas; Lopez, Alianda; Dingemanse, Mark (2023). Opening up ChatGPT: Tracking openness, transparency, and accountability in instruction-tuned text generators. ACM Digital Library. 1–6쪽. arXiv:2307.05532. doi:10.1145/3571884.3604316. ISBN 979-8-4007-0014-9. 2023년 2월 19일에 확인함.
  125. White, Matt; Haddad, Ibrahim; Osborne, Cailean; Liu, Xiao-Yang Yanglet; Abdelmonsef, Ahmed; Varghese, Sachin; Hors, Arnaud Le (2024년 10월 18일). The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence. arXiv:2403.13784 [cs.LG].
  126. About European open source AI Index. www.osai-index.eu. OSAI Index. 2025년 2월 20일에 원본 문서에서 보존된 문서. 2025년 2월 19일에 확인함.

외부 링크

[편집]