인공지능의 윤리
| 시리즈의 일부 |
| 인공지능 (AI) |
|---|
인공지능의 윤리(人工知能 倫理, 영어: ethics of artificial intelligence)는 특별한 윤리적 이해관계가 있다고 간주되는 인공지능 내의 광범위한 주제를 다룬다.[1] 여기에는 알고리즘 편향, 공정성 (기계 학습), 설명책임, 투명성, 프라이버시, 규제가 포함되며, 특히 시스템이 인간의 의사결정에 영향을 미치거나 이를 자동화하는 경우가 해당된다. 또한 머신 에티카(윤리적으로 행동하는 기계를 만드는 방법), 치명적 자율 무기 시스템, 군비 경쟁 역학, AI 안전 및 정렬, 기술적 실업, AI 기반 오보,[2] 특정 AI 시스템이 도덕적 지위를 가질 경우 이를 대우하는 방법(AI 복지 및 권리), 초지능 및 실존적 위험과 같은 다양한 신흥 또는 잠재적 미래 과제도 다룬다.[1]
의료, 교육, 형사 사법 또는 군사와 같은 일부 응용 분야도 특히 중요한 윤리적 함의를 가질 수 있다.
머신 에티카
[편집]머신 에티카(또는 기계 도덕)는 도덕적으로 또는 도덕적인 것처럼 행동하는 인공 도덕적 행위자(AMA), 로봇 또는 인공지능 컴퓨터를 설계하는 것과 관련된 연구 분야이다.[3][4][5][6] 이러한 행위자의 본성을 설명하기 위해, AMA의 개념과 관련된 행위자성, 합리적 행위자, 도덕적 행위자, 인공적 행위자성의 표준적 성격 규정과 같은 특정 철학적 아이디어를 고려하는 것이 제안되었다.[7]
AI가 도덕적 결정을 내릴 수 있는지 확인하기 위한 테스트를 만드는 것에 대한 논의가 있다. 앨런 윈필드는 튜링 검사에 결함이 있으며 AI가 테스트를 통과하기 위한 요구 사항이 너무 낮다고 결론지었다.[8] 제안된 대안 테스트는 윤리적 튜링 테스트라 불리는 것으로, 여러 심사위원이 AI의 결정이 윤리적인지 비윤리적인지 판단하게 함으로써 현재의 테스트를 개선하는 것이다.[8] 뉴로모픽 AI는 수백만 개의 서로 연결된 인공 신경망을 통해 비선형적으로 인간과 유사하게 정보를 처리하는 것을 목표로 하므로, 도덕적 능력을 갖춘 로봇을 만드는 한 가지 방법이 될 수 있다.[9] 마찬가지로, 전뇌 에뮬레이션(뇌를 스캔하여 디지털 하드웨어에서 시뮬레이션하는 것)도 원칙적으로 인간과 유사한 로봇으로 이어질 수 있으며, 따라서 도덕적 행동이 가능하다.[10] 그리고 대형 언어 모델은 인간의 도덕적 판단을 근사적으로 흉내 낼 수 있다.[11] 이는 필연적으로 그러한 로봇이 세상에 대해 배우는 환경과 누구의 도덕성을 물려받을 것인지, 혹은 이기심, 생존 우선 태도, 일관성 없음, 규모에 대한 무감각 등 인간의 '약점'까지 개발하게 될 것인지에 대한 질문을 던진다.
《도덕적 기계: 로봇에게 옳고 그름 가르치기》(Moral Machines: Teaching Robots Right from Wrong)[12]에서 웬델 월러치와 콜린 앨런은 로봇에게 옳고 그름을 가르치려는 시도가 인간으로 하여금 현대 규범 이론의 공백을 다루게 하고 실험적 조사를 위한 플랫폼을 제공함으로써 인간 윤리에 대한 이해를 증진시킬 것이라고 결론지었다. 한 가지 예로, 기계에 어떤 특정 학습 알고리즘을 사용할 것인지에 대한 논쟁적인 문제를 규범 윤리학자들에게 소개했다. 단순한 결정의 경우, 닉 보스트롬과 엘리저 유드코프스키는 결정 트리(ID3 알고리즘 등)가 인공 신경망이나 유전 알고리즘보다 더 투명하다고 주장했다.[13] 반면 크리스 산토스-랭은 모든 시대의 규범은 변할 수 있어야 하며, 이러한 특정 규범을 완전히 충족하지 못하는 자연스러운 실패가 인간을 범죄적 "해커"로부터 덜 취약하게 만드는 데 필수적이었다는 근거로 기계 학습을 지지했다.[14]
일부 연구자들은 머신 에티카를 더 넓은 범위의 AI 통제 또는 가치 정렬 문제의 일부로 프레임화한다. 이는 점점 더 유능해지는 시스템이 인간의 가치 및 감독과 호환되는 목표를 추구하도록 보장하는 데 따르는 어려움이다. 스튜어트 러셀은 유익한 시스템이 (1) 인간의 선호도를 실현하는 것을 목표로 하고, (2) 그 선호도가 무엇인지에 대해 불확실성을 유지하며, (3) 고정되고 완전히 명시된 목표를 최적화하기보다는 인간의 행동과 피드백으로부터 선호도에 대해 배우도록 설계되어야 한다고 주장했다.[15] 일부 저자들은 인간 가치에 대한 외견상의 준수가 안정적인 내부 규범보다는 평가 맥락에 대한 최적화를 반영할 수 있으며, 이는 고급 언어 모델의 정렬 평가를 복잡하게 만든다고 주장한다.[16]
과제
[편집]알고리즘 편향
[편집]AI는 얼굴 및 음성 인식 시스템에서 점점 더 필수적인 요소가 되었다. 이러한 시스템은 인간 제작자가 도입한 편향과 오류에 취약할 수 있다. 특히, 시스템을 훈련하는 데 사용되는 데이터에 편향이 있을 수 있다.[17][18][19][20]
런던 정치경제대학교(LSE) 부교수이자 데이터 및 사회 프로그램 책임자인 앨리슨 파월에 따르면, 데이터 수집은 결코 중립적이지 않으며 항상 스토리텔링을 수반한다. 그녀는 기술을 통한 통치가 본질적으로 더 좋고 빠르고 저렴하다는 것이 지배적인 서사이지만, 대신 데이터를 비싸게 만들고, 데이터 생성 비용을 고려하여 최소한이면서도 가치 있게 사용해야 한다고 주장한다.[21] 프리드먼과 니센바움은 컴퓨터 시스템의 편향을 세 가지 범주로 식별한다: 기존 편향, 기술적 편향, 그리고 발현적 편향.[22] 자연어 처리에서는 말뭉치(알고리즘이 단어 간의 관계를 배우기 위해 사용하는 원천 자료)로부터 문제가 발생할 수 있다.[23]
연구 개발에 상당한 자금을 제공하는 IBM, 구글 등과 같은 대기업들은[24] 이러한 편향을 연구하고 해결하기 위해 노력해 왔다.[25][26][27] 한 가지 잠재적 해결책은 AI 시스템을 훈련하는 데 사용된 데이터에 대한 문서를 작성하는 것이다.[28][29] 프로세스 마이닝은 조직이 오류를 식별하고, 프로세스를 모니터링하며, 부적절한 실행의 잠재적 근본 원인을 식별하는 등의 기능을 통해 제안된 AI 규정을 준수하는 데 중요한 도구가 될 수 있다.[30] 그러나 철학적 및 법적 수준에서 차별 개념의 고유한 모호성으로 인해 현재 AI의 공정성 환경에는 한계가 존재한다.[31][32]
인종 및 성별 편향
[편집]AI 시스템을 훈련하는 데 사용되는 역사적 데이터를 통해 편향이 도입될 수 있다.[33][34] 예를 들어, 아마존은 알고리즘이 여성보다 남성 후보자를 선호했기 때문에 인공지능 채용의 사용을 중단했다.[35] 이는 아마존의 시스템이 주로 남성 후보자가 포함된 10년 동안 수집된 데이터로 훈련되었기 때문이었다. 알고리즘은 역사적 데이터로부터 편향된 패턴을 학습했고, 이러한 유형의 후보자가 취업에 성공할 가능성이 가장 높다는 예측을 생성했다. 따라서 AI 시스템에 의한 채용 결정은 여성 및 소수자 후보자에게 편향된 것으로 판명되었다.[36]
얼굴 인식 및 컴퓨터 비전 모델의 성능은 인종과 성별에 따라 다를 수 있다. 마이크로소프트, IBM, Face++가 만든 얼굴 인식 알고리즘은 모두 피부색이 어두운 여성에 대해 성능이 현저히 떨어졌다.[37][38] 얼굴 인식은 피부색이 어두운 사람들에게 편향되어 있음이 밝혀졌다. AI 기반 맥박 산소 측정기 개발 시 피부색이 어두운 환자의 혈중 산소 농도를 과대평가하여 저산소증 치료에 문제를 일으킨 사례처럼, AI 시스템은 흑인에게 덜 정확할 수 있다.[39] 2015년에는 구글 포토가 흑인 커플을 "고릴라"로 분류하여 논란이 일었다.[40][41] 종종 시스템은 백인의 얼굴은 쉽게 감지하는 반면 흑인의 얼굴은 등록하지 못한다. 이로 인해 일부 미국의 주에서는 경찰의 AI 자료 또는 소프트웨어 사용을 금지했다. 이러한 편향의 원인은 AI가 각 상황에서의 반응에 영향을 미치기 위해 인터넷 전반에서 정보를 끌어오기 때문이다. 예를 들어, 얼굴 인식 시스템이 백인만을 대상으로 테스트되었다면 다른 인종 및 민족성의 얼굴 구조와 색조를 해석하는 것이 훨씬 더 어려워질 것이다. 편향은 알고리즘 자체보다는 훈련 데이터에서 기인하는 경우가 많으며, 특히 데이터가 과거 인간의 결정을 대변할 때 그러하다.[42]
아마존, 애플, 구글, IBM, 마이크로소프트의 음성 인식 시스템을 검토한 2020년 연구에 따르면, 백인의 목소리보다 흑인의 목소리를 전사할 때 오류율이 더 높은 것으로 나타났다.[43]
의료 시스템 내에서 AI 사용의 불의를 제거하기는 훨씬 더 어려운데, 질병과 상태가 인종과 성별에 따라 다르게 영향을 미칠 수 있기 때문이다. AI가 성별이나 인종 때문에 특정 환자가 문제를 겪을 가능성이 더 높다는 통계에 근거하여 결정을 내릴 수 있어 혼란을 야기할 수 있다.[44] 각 환자는 서로 다른 사례임에도 불구하고 AI가 프로그래밍된 대로 개인을 특정 집단으로 묶어 결정을 내리기 때문에 이는 편향으로 인식될 수 있다. 이는 치료 분배에 있어 무엇을 편향된 결정으로 간주해야 하는지에 대한 논의로 이어진다. 질병과 부상이 성별과 인종에 따라 다르게 영향을 미친다는 것은 알려진 사실이지만, 이를 의료 치료에 반영하는 것이 더 공정한지, 아니면 이러한 지식 없이 각 환자를 조사하는 것이 더 공정한지에 대한 논의가 있다. 현대 사회에는 유방암과 같은 질병에 대해 특정 그룹의 사람들이 해당 질병에 걸릴 가능성이 더 높기 때문에 다른 사람들보다 검사를 더 권장하는 경우가 있다. 만약 AI가 이러한 통계를 구현하여 각 환자에게 적용한다면 편향된 것으로 간주될 수 있다.[45]
사법 제도에서 AI는 흑인 법정 참여자를 백인보다 훨씬 높은 비율로 고위험군으로 분류하는 등 흑인에 대한 편향을 가질 수 있다. AI는 종종 인종 차별적 발언과 이를 검열해야 할 시점을 결정하는 데 어려움을 겪는다. 특정 단어가 비하 목적으로 사용되는지 문화적으로 사용되는지 판단하는 데 어려움을 겪는 것이다.[46] COMPAS 프로그램은 어떤 피고인이 재범 가능성이 높은지 예측하는 데 사용되어 왔다. COMPAS는 인종 그룹 간에 동일한 오류율을 갖도록 정확도가 보정되었지만, 흑인 피고인은 백인 피고인보다 "고위험군"으로 잘못 표시될 확률이 거의 두 배 높았고, "저위험군"으로 잘못 표시될 확률은 절반에 불과했다.[47] 또 다른 사례로 구글의 광고는 고소득 직종에는 남성을, 저소득 직종에는 여성을 타겟팅했다. 알고리즘 내의 AI 편향은 편향과 관련된 실제 단어와 연결되지 않는 경우가 많아 감지하기 어려울 수 있다. 그 예로 한 사람의 거주 지역을 특정 그룹과 연결하는 데 사용하는 것이다. 이는 종종 기업들이 이러한 허점을 통해 법적 조치를 피할 수 있기 때문에 문제로 이어질 수 있다. 이는 정부가 이러한 정책을 집행할 때 차별적인 것으로 간주하는 구체적인 법률 때문이다.[48]
대형 언어 모델은 종종 전통적인 성 고정관념에 기반하여 역할과 특성을 할당함으로써 성 고정관념을 강화한다. 예를 들어 간호사나 비서는 주로 여성과 연결하고 엔지니어나 CEO는 남성과 연결하여 젠더화된 기대와 역할을 영속화할 수 있다.[49][50][39] 또한 얼굴 인식 시스템, 컴퓨터 비전, 또는 자동 성별 인식 모델은 본인의 정체성과 일치하지 않는 성별 오분류를 통해 시스젠더[51][52]와 트랜스젠더[53][54] 모두에 대한 편향을 강화할 수 있다.
정형화
[편집]성별과 인종을 넘어, 이러한 모델은 연령, 국적, 종교, 직업 등에 기반한 광범위한 고정관념을 강화할 수 있다. 이는 사람들의 집단을 불공정하게 일반화하거나 희화화하는 결과로 이어질 수 있으며, 때로는 해롭거나 경멸적인 방식으로 나타나기도 한다.[55][33] 예를 들어, 학자들은 데이터와 모델 개발이 서구 국가에 집중되어 있을 때 AI 시스템이 어떻게 글로벌 불평등을 재생산하고 증폭시킬 수 있는지 강조하며, AI 시스템의 공정성과 대표성에 대한 우려를 제기했다.[56]
그러한 고정관념은 AI 시스템의 설계와 그들이 훈련되는 프로그래밍 모델에서 직접적으로 비롯된다. 특정 인구통계를 타겟팅하는 고정관념은 프로그래밍 과정에서 내재된 사회적 편향, 오래된 데이터셋, 그리고 소외된 그룹보다는 상위 순위 및 다수 그룹을 우선시하는 알고리즘 아키텍처에서 발생한다.[57] 또한 연구는 인간의 상호작용이 편향을 도입함에 따라 AI 내의 고정관념에 기여하는 주요 요인으로 사용자 피드백을 강조한다. 게다가 AI 산업은 남성 지배적인 분야, 특히 젊은 성인 남성이 주를 이루고 있어, AI 데이터베이스에 불평등을 기르는 다양성의 부족을 초래한다. 워드 임베딩은 AI 알고리즘 내에서 "사람들"의 사용이 중립성보다는 여성을 배제하고 남성을 우선시하는 젠더 불평등을 보여준다는 것을 드러낸다.[57]
언어 편향
[편집]AI는 주로 영어를 기반으로 훈련되며, 훈련 데이터의 약 90%가 영어이다.[58] 셀레스테 로드리게스 로우로는 주류 미국 영어가 생성형 인공지능 시스템을 훈련하는 데 사용되는 주요 영어 변종이며, 이로 인해 동질성을 향한 언어적 편향과 다른 영어 변종의 배제가 발생한다고 주장했다.[58] 현재의 대형 언어 모델은 압도적으로 영어 데이터로 훈련되기 때문에, 종종 서구의 견해를 진리로 제시하는 반면 비영어권의 관점은 체계적으로 경시한다.[59] 2024년 기준 대부분의 AI 시스템은 전 세계 7,000개 언어 중 100개 언어만으로 훈련되어 있다.[60]
정치적 편향
[편집]언어 모델은 정치적 편향을 나타낼 수도 있다. 훈련 데이터가 광범위한 정치적 의견과 보도를 포함하고 있기 때문에, 모델은 데이터에서 그러한 견해의 보급률에 따라 특정 정치 이데올로기나 관점으로 기울어진 응답을 생성할 수 있다.[61][62][63] 이러한 데이터의 왜곡은 알고리즘 편향, 또는 AI가 훈련된 데이터에 근거하여 특정 답변에 대한 성향을 가질 때를 말한다.[64] 이는 객관적인 답변이 아니라 정치적 스펙트럼의 서로 다른 끝으로 치우친 답변을 제공하는 AI 시스템을 만들 수 있다. ChatGPT는 더 자유주의적으로 치우친 AI 모델이라고 일컬어진다.[65] 사용자들이 자신의 기존 정치적 신념과 일치하는 답변에 더 동의할 가능성이 높다는 사실이 밝혀졌다. 일부 AI 시스템은 생성된 답변이 사용자와 일치하도록 정치적으로 왜곡될 수 있도록 사용자의 정치적 성향을 측정하려 시도하며,[65] 이는 끝없는 확증 편향 루프로 이어진다. 사용자들이 이미 답변과 일치하는 성향을 가지고 있다면 정치적 편향을 인지하기가 더 어려우며,[66] 이는 결과적으로 이러한 AI 기업과 프로그래머들이 정치적으로 편향된 AI 모델을 그대로 유지할 수 있게 한다.
IT 대기업의 지배력
[편집]상업적 AI 현장은 알파벳, 아마존, 애플, 메타 플랫폼스, 마이크로소프트, 그리고 스페이스X를 포함한 빅테크 기업들에 의해 지배되고 있다.[67][68][69] 이러한 플레이어들 중 일부는 이미 기존 클라우드 컴퓨팅 인프라와 데이터 센터로부터의 컴퓨팅 파워의 대다수를 소유하고 있어 시장에서 더욱 공고히 자리를 잡을 수 있다.[70][71] 기술 시장에서의 그들의 현재 지배력은 신생 기업들이 경쟁하고 장기적으로 성공하기 매우 어렵게 만든다.[72] 경쟁법 학자들은 세계의 IT 거인들이 시장 지배력을 사용하여 잠재적 경쟁자로부터 시장을 차단하고, 결과적으로 소비자에게 더 높은 가격을 청구할 수 있다고 시사해 왔다.[73] 이러한 우려에 비추어 전 세계 정부는 대기업들이 이러한 관행을 계속하거나 실행하는 것을 방지할 법률을 고려하고 시행하고 있다.[73] 이러한 기술 대기업들은 오늘날 필요한 인프라를 구축하는 데 필요한 자금을 보유하고 있다. 상위 5개 기업은 2026년에 자본 지출만으로 6,020억 달러를 지출할 것으로 예상되며, 이는 전년 대비 32% 증가한 수치이다.[72] 이 지출에서 약 75%가 AI 전용 인프라에 투입될 것으로 추정된다.[72] AI와 함께 기술 산업에서 나타난 상당한 성장세를 고려할 때, 산업을 경쟁력 있고 공정하게 유지하는 것이 중요하다.
기후 영향
[편집]가장 큰 생성형 AI 모델들은 훈련과 사용에 막대한 컴퓨팅 자원을 필요로 한다. 이러한 컴퓨팅 자원은 종종 거대한 데이터 센터에 집중되어 있다. 그 결과 발생하는 환경적 영향에는 온실가스 배출, 물 소비, 전자 쓰레기가 포함된다.[74] 에너지 효율의 개선에도 불구하고 AI가 더 널리 사용됨에 따라 에너지 수요는 증가할 것으로 예상된다.[75]
전기 소비 및 탄소 발자국
[편집]이러한 자원은 종종 거대한 데이터 센터에 집중되며, 이는 막대한 양의 에너지를 요구하여 온실가스 배출 증가를 초래한다.[74] 2023년의 한 연구에 따르면 대규모 AI 모델을 훈련하는 데 필요한 에너지양은 626,000파운드의 이산화탄소 또는 뉴욕과 샌프란시스코 사이를 300회 왕복 비행하는 것과 맞먹는 것으로 나타났다.[76]
물 소비
[편집]탄소 배출 외에도 이러한 데이터 센터는 AI 칩을 냉각하기 위해 물이 필요하다. 지역적으로 이는 물 부족과 생태계 파괴로 이어질 수 있다. 데이터 센터에서 사용되는 에너지 1킬로와트시당 약 2리터의 물이 필요하다.[76] 데이터 센터는 AI 칩 냉각을 위해 물을 사용하는 것 외에도 환경에 부정적인 영향을 미치는 여러 간접적인 사용처가 있다. 전체 물 소비의 80% 이상이 이러한 대규모 데이터 센터에 연료를 공급하는 데 사용되는 전력 생산에서 발생한다.[77] 게다가 건설된 데이터 센터의 약 2/3가 물 부족 지역에 위치한다.[78] 이 때문에 AI 개발은 물 사용을 두고 지역 사회 및 농업과 경쟁할 수 있다. 많은 기업이 물 소비에 미치는 영향의 심각성을 완전히 공개하지 않아, 이들 기업이 진정으로 사람을 위한 것인지 아니면 최대 이익을 쫓는 것인지에 대한 윤리적 우려를 낳고 있다. 이러한 데이터 센터가 구현한 한 가지 해결책은 무수 냉각 시스템을 사용하는 것이지만, 이는 더 높은 탄소 배출과 전력 사용량 증가를 초래한다. 기업들은 물 사용이라는 지역적 우려와 탄소 배출이라는 글로벌 우려 중 무엇을 우선시할지 결정해야 한다. 단 한 번의 AI 질의에 16.9mL의 물이 사용되지만, 시스템 냉각에는 2.2mL만 투입된다.[79] 이는 상호작용에 사용되는 전체 물의 15% 미만으로, 간접적인 물 사용의 심각성을 예시한다.
전자 쓰레기
[편집]또 다른 문제는 그 결과로 발생하는 전자 쓰레기(e-waste)이다. 여기에는 납과 수은과 같은 유해 물질과 화학 물질이 포함되어 토양과 물을 오염시킬 수 있다. AI 관련 전자 쓰레기의 환경적 영향을 방지하기 위해 더 나은 폐기 관행과 엄격한 법률이 마련될 수 있다.[76]
전망
[편집]AI의 인기가 높아지면서 데이터 센터의 필요성이 증가하고 이러한 문제들이 심화되고 있다.[75] 또한 AI 기업들의 환경적 영향에 대한 투명성도 부족하다. 일부 응용 프로그램은 간접적으로 환경에 영향을 미칠 수도 있다. 예를 들어 AI 광고는 이미 상당한 배출량을 생성하는 산업인 패스트 패션의 소비를 늘릴 수 있다.[80]
하지만 AI는 환경 피해를 완화하는 데 도움을 줌으로써 긍정적인 방식으로 사용될 수도 있다. 다양한 AI 기술은 배출량을 모니터링하고 기업이 배출량을 낮추는 데 도움이 되는 알고리즘을 개발하는 데 기여할 수 있다.[80]
오픈 소스
[편집]빌 히버드는 AI가 인류에게 심오한 영향을 미칠 것이기 때문에 AI 개발자는 미래 인류의 대표자이며 따라서 그들의 노력에 있어 투명해야 할 윤리적 의무가 있다고 주장한다.[81] 허깅 페이스[82]와 EleutherAI[83] 같은 조직들은 활발하게 AI 소프트웨어를 오픈 소싱해 왔다. Gemma, Llama2, Mistral과 같은 다양한 오픈 가중치 대형 언어 모델들도 출시되었다.[84]
그러나 코드를 오픈 소스로 만든다고 해서 그것이 이해 가능해지는 것은 아니며, 많은 정의에 따르면 이는 AI 코드가 투명하지 않다는 것을 의미한다. IEEE 표준 협회는 자율 시스템의 투명성에 관한 기술 표준인 IEEE 7001-2021을 발표했다.[85] IEEE의 노력은 다양한 이해관계자를 위한 다층적인 투명성 척도를 식별한다.
AI 모델을 공개하는 것이 오용으로 이어질 수 있다는 우려도 있다.[86] 예를 들어, 마이크로소프트는 비용을 지불할 수 있는 사람들에게라도 자사의 얼굴 인식 소프트웨어에 대한 보편적인 접근을 허용하는 것에 대해 우려를 표명했다. 마이크로소프트는 이 주제에 관한 블로그를 게시하여 올바른 일을 결정하는 데 도움이 되도록 정부 규제를 요청했다.[87] 나아가 오픈 가중치 AI 모델은 모든 대응책을 제거하도록 파인 튜닝될 수 있으며, 필터링 없이 위험한 요청을 따를 때까지 수정될 수 있다. 이는 향후 AI 모델이 생물무기를 만들거나 사이버 공격을 자동화하는 능력을 갖추게 될 경우 특히 우려될 수 있다.[88] 오픈AI는 초기에 인공 일반 지능(AGI) 개발에 대해 오픈 소스 접근 방식을 약속했으나, 결국 경쟁력과 안전상의 이유를 들어 폐쇄형 소스 방식으로 전환했다. 오픈AI의 전 수석 AGI 과학자 일리야 수츠케버는 2023년에 "우리가 틀렸다"며, 가장 강력한 AI 모델을 오픈 소싱하지 않는 안전상의 이유가 몇 년 안에 "분명해질" 것이라고 말했다.[89]
오픈 놀리지 플랫폼에 미치는 부담
[편집]2023년 4월, 와이어드는 5,000만 개 이상의 질문과 답변이 있는 인기 있는 프로그래밍 도움말 포럼인 스택 오버플로가 대형 AI 개발자들에게 콘텐츠 접근 비용을 청구할 계획이라고 보도했다. 회사는 대형 언어 모델을 뒷받침하는 커뮤니티 플랫폼이 오픈 놀리지를 유지하는 데 재투자할 수 있도록 "반드시 보상을 받아야 한다"고 주장했다. 스택 오버플로는 자사의 데이터가 데이터 스크래핑, API, 데이터 덤프를 통해 접근되고 있으며, 종종 적절한 출처 표기 없이 자사의 약관과 사용자 기여물에 적용된 크리에이티브 커먼즈 라이선스를 위반하고 있다고 밝혔다. 스택 오버플로의 CEO는 또한 스택 오버플로와 같은 플랫폼에서 훈련된 대형 언어 모델이 "정보와 대화를 위해 사람들이 찾는 모든 서비스에 위협이 된다"고 언급했다.[90]
2025년 3월 아르스 테크니카 기사에 따르면, 공격적인 AI 크롤러가 오픈 소스 인프라에 점점 더 과부하를 주어 "필수적인 공공 자원에 지속적인 서비스 거부 공격(DDoS)을 가하고 있다". 그놈, KDE, Read the Docs와 같은 프로젝트들은 서비스 중단이나 비용 상승을 겪었으며, 한 보고서는 일부 프로젝트 트래픽의 최대 97%가 AI 봇에서 발생했다고 언급했다. 이에 대응하여 유지관리자들은 작업 증명 시스템 및 국가 차단과 같은 조치를 도입했다. 기사에 따르면, 이러한 무분별한 스크래핑은 "이러한 AI 모델이 의존하는 디지털 생태계 자체에 심각한 손상을 입힐 위험이 있다".[91]
2025년 4월, 위키미디어 재단은 AI 봇에 의한 자동화된 스크래핑이 인프라에 부담을 주고 있다고 보고했다. 2024년 초부터 AI 모델 훈련 데이터를 수집하는 봇에 의한 멀티미디어 콘텐츠의 대규모 다운로드로 인해 대역폭 사용량이 50% 증가했다. 이러한 봇들은 종종 모호하고 자주 캐시되지 않는 페이지에 접근하여 캐싱 시스템을 우회하고 핵심 데이터 센터에 높은 비용을 전가했다. 위키미디어에 따르면 봇은 전체 페이지 뷰의 35%를 차지했지만, 가장 비싼 요청의 65%를 차지했다. 재단은 "우리의 콘텐츠는 무료이지만 인프라는 그렇지 않다"고 지적하며 "이것이 커뮤니티가 운영하는 플랫폼의 지속 가능성을 위협하는 기술적 불균형을 초래한다"고 경고했다.[92]
투명성
[편집]신경망을 이용한 기계 학습과 같은 접근 방식은 컴퓨터 스스로나 개발자조차 설명할 수 없는 결정을 내리는 결과를 초래할 수 있다. 사람들이 그러한 결정이 공정하고 신뢰할 수 있는지 판단하기 어려우며, 잠재적으로 AI 시스템의 편향이 감지되지 않은 채 방치되거나 사람들이 그러한 시스템의 사용을 거부하게 만들 수 있다. 시스템 투명성의 부족은 사용자 신뢰의 부족으로 이어진다는 것이 밝혀졌다.[93] 결과적으로 AI 시스템 개발자가 시스템에 투명성을 포함하도록 강제하기 위해 많은 표준과 정책이 제안되었다.[94] 이러한 투명성에 대한 요구는 일부 관할권에서 설명가능 인공지능에 대한 옹호와 법적 요구 사항으로 이어졌다.[95] 설명가능 인공지능은 설명가능성(explainability)과 해석가능성(interpretability)을 모두 포괄하는데, 설명가능성은 모델의 출력에 대한 이유를 제공하는 것과 관련이 있고, 해석가능성은 AI 모델의 내부 작동 방식을 이해하는 데 중점을 둔다.[96]
의료 분야에서 복잡한 AI 방법이나 기술의 사용은 작동 방식을 이해하기 어렵기 때문에 종종 "블랙박스"로 묘사되는 모델로 이어진다. 입력 데이터가 출력으로 어떻게 변환되는지 분석하기 어렵기 때문에 그러한 모델이 내린 결정은 해석하기 어려울 수 있다. 이러한 투명성의 부족은 의료와 같은 분야에서 상당한 우려 사항이며, 여기서 결정의 근거를 이해하는 것은 신뢰, 윤리적 고려 사항, 규제 표준 준수를 위해 매우 중요할 수 있다.[97] 의료 AI에 대한 신뢰는 제공되는 투명성의 수준에 따라 달라지는 것으로 나타났다.[98] 더욱이, AI 시스템의 설명할 수 없는 출력은 의료 오류를 식별하고 감지하는 것을 훨씬 더 어렵게 만든다.[99]
설명책임
[편집]AI의 불투명성의 특별한 사례는 AI가 의인화됨으로써 발생하는 것인데, 즉 인간과 유사한 특성을 가진 것으로 가정되어 도덕적 행위자성에 대한 잘못된 개념을 낳는 경우이다. 이는 사람들이 인간의 부주의나 의도적인 범죄 행위가 AI 시스템을 통해 비윤리적인 결과로 이어졌는지 간과하게 만들 수 있다. 유럽 연합의 인공지능 규제법과 같은 최근의 디지털 거버넌스 규정은 AI 시스템이 적어도 일반적인 제조물 책임법 하에서 기대되는 것과 동일한 수준의 주의를 기울여 처리되도록 보장함으로써 이를 시정하는 것을 목표로 한다. 여기에는 잠재적인 AI 감사가 포함된다.
규제
[편집]옥스퍼드 대학교 AI 거버넌스 센터의 2019년 보고서에 따르면, 미국인의 82%가 로봇과 AI가 신중하게 관리되어야 한다고 믿는다. 인용된 우려는 감시 및 온라인 허위 콘텐츠 확산(AI 도움으로 생성된 조작된 비디오 이미지와 오디오를 포함하는 경우 딥페이크라고 함)에 AI가 어떻게 사용되는지부터 사이버 공격, 데이터 프라이버시 침해, 채용 편향, 자율 주행 차량, 인간 통제자가 필요 없는 드론에 이르기까지 다양했다.[100] 마찬가지로, 2021년 KPMG와 호주 퀸즐랜드 대학교의 5개국 연구에 따르면 각 국가 시민의 66~79%가 AI가 사회에 미치는 영향이 불확실하고 예측 불가능하다고 믿으며, 설문 조사 대상자의 96%는 AI 거버넌스 과제가 신중하게 관리되기를 기대한다.[101]
기업뿐만 아니라 많은 연구자와 시민 옹호자들은 투명성을 보장하고 이를 통해 인간의 설명책임을 보장하는 수단으로 정부 규제를 권고한다. 이 전략은 혁신 속도를 늦출 것이라는 우려 때문에 논란이 되고 있다. 다른 이들은 규제가 장기적으로 혁신을 뒷받침할 수 있는 체계적 안정성으로 이어진다고 주장한다.[102] OECD, 유엔, EU, 그리고 많은 국가가 현재 AI를 규제하고 적절한 법적 체계를 찾기 위한 전략을 수립하고 있다.[103][104][105][2]
2019년 6월 26일, 유럽 연합 집행위원회 인공지능 고위 전문가 그룹(AI HLEG)은 "신뢰할 수 있는 인공지능을 위한 정책 및 투자 권고안"을 발표했다.[106] 이는 2019년 4월에 발표된 "신뢰할 수 있는 AI를 위한 윤리 가이드라인"에 이은 AI HLEG의 두 번째 성과물이다. 6월 AI HLEG 권고안은 인간과 사회 전반, 연구 및 학계, 민간 부문, 공공 부문의 네 가지 주요 주제를 다룬다.[107] 유럽 연합 집행위원회는 "HLEG의 권고안이 AI 기술이 경제 성장, 번영 및 혁신을 주도할 기회와 관련 잠재적 위험을 모두 인식하고 있음을 반영한다"고 주장하며, EU가 국제적으로 AI를 규제하는 정책 수립을 주도하는 것을 목표로 한다고 밝혔다.[108] 피해를 방지하기 위해 규제와 더불어 AI 배포 조직은 신뢰할 수 있는 AI의 원칙에 따라 신뢰할 수 있는 AI를 만들고 배포하는 데 핵심적인 역할을 수행해야 하며, 위험을 완화할 책임을 져야 한다.[109]
2024년 6월, EU는 인공지능 규제법(AI Act)을 채택했다.[110] 2024년 8월 1일, 인공지능 규제법이 발효되었다.[111] 규칙은 점진적으로 적용되며, 법은 발효 24개월 후 완전히 적용된다.[110] 인공지능 규제법은 AI 시스템의 제공자와 사용자에게 규칙을 설정한다.[110] 이는 위험 기반 접근 방식을 따르며, 위험 수준에 따라 AI 시스템이 금지되거나 해당 AI 시스템을 시장에 출시하고 사용하기 위해 특정 요구 사항을 충족해야 한다.[111]
딥페이크
[편집]딥페이크는 AI를 사용하여 사람의 모습이나 목소리를 디지털 방식으로 교체하거나 변경한 비디오, 오디오 또는 이미지 형태의 디지털 미디어이다. "딥페이크"라는 용어는 "딥(deep)"과 "페이크(fake)"라는 단어가 결합된 혼성어이다. "딥"은 생성적 적대 신경망(GAN)과 같은 딥 러닝을 의미한다. 이 용어는 2017년 레딧 플랫폼에서 사용자들이 동의 없이 생성된 이미지를 서로 공유하기 시작하면서 처음 등장하여 널리 주목받았다(MIT Sloan). 2020년대 초, AI 생성 소프트웨어를 누구나 쉽게 사용할 수 있게 되면서 딥페이크는 일상 용어가 되었다. 이 기술과 특히 AI가 발전함에 따라, 부적절하거나 논란이 되는 행동을 하는 이미지를 포함하여 공인의 딥페이크가 나타나기 시작했다. 주목받는 사람들, 특히 정치인들은 부적절한 상징이나 행동을 보여주는 딥페이크 비디오나 이미지에 프레임이 씌워지는 일이 점점 더 많아지고 있다(가디언). 딥페이크 기술은 사람을 비방하는 데 사용될 뿐만 아니라 온라인 사기에도 사용되고 있다. 2022년과 2023년에 사기꾼들은 딥페이크 기술을 사용하여 임원, 가족 구성원, 가까운 친척의 목소리를 흉내 냈다. 이러한 사기로 인해 기업과 소비자 모두 수백만 달러의 피해를 입었다(CNN).
사용 증가
[편집]AI는 모든 숙제 질문에 답을 해주는 것 같은 챗봇부터 원하는 것은 무엇이든 그림으로 그려주는 생성형 AI에 이르기까지 전 세계적으로 그 존재감을 서서히 드러내고 있다.[33] AI는 고용 시장에서 사용자가 찾는 것에 따라 타겟팅하는 광고부터 잠재적 고용자의 지원서 검토에 이르기까지 점점 더 인기를 얻고 있다. 코로나19와 같은 사건은 더 많은 사람들이 전자적으로 지원해야 했기 때문에 지원 과정에서 AI 프로그램의 도입을 가속화했으며, 온라인 지원자의 증가로 AI를 사용하는 것이 잠재적 직원을 추려내는 과정을 더 쉽고 효율적으로 만들었다. 기업들이 시대와 계속 확장되는 인터넷에 발맞추어야 함에 따라 AI는 더욱 두드러지게 되었다. AI의 도움으로 분석을 처리하고 결정을 내리는 것이 훨씬 쉬워졌다.[46] 텐서 처리 장치(TPU)와 그래픽 처리 장치(GPU)가 더욱 강력해짐에 따라 AI 기능도 향상되어 기업들은 경쟁에서 뒤처지지 않기 위해 이를 사용해야만 한다. 고객의 요구를 관리하고 작업장의 많은 부분을 자동화함으로써 기업은 직원에 대한 지출을 줄일 수 있게 된다.
AI는 또한 형사 사법과 의료 분야에서도 사용이 증가하고 있다. 의료 목적으로 AI는 환자 데이터를 분석하여 미래 환자의 상태와 가능한 치료법에 대한 예측을 내놓는 데 더 자주 사용되고 있다. 이러한 프로그램을 임상 의사결정 지원 시스템(DSS)이라고 한다. 의료 분야에서 AI의 미래는 권장 치료법을 넘어 특정 환자를 다른 환자보다 먼저 회부하는 등 불평등의 가능성으로 발전할 수도 있다.[112]
AI 복지
[편집]2020년 시몬 에델만 교수는 빠르게 성장하는 AI 윤리 분야의 연구 중 아주 일부분만이 AI가 고통을 겪을 가능성을 다루고 있다고 지적했다. 이는 통합 정보 이론이나 전역 작업공간 이론(global workspace theory)과 같이 AI 시스템이 의식을 갖게 될 수 있는 가능한 방식을 설명하는 신뢰할 만한 이론들이 있음에도 불구하고 그러했다. 에델만은 2018년에 의식이 있는 AI를 만들 위험이 있는 추가 작업을 세계적으로 일시 중단할 것을 촉구한 토마스 메칭거를 예외로 꼽았다. 이 모라토리엄은 2050년까지 지속되며 위험을 더 잘 이해하고 이를 완화하는 방법의 진전에 따라 연장되거나 조기에 취소될 수 있도록 했다. 메칭거는 2021년에도 이 주장을 반복하며, AI가 인간이 이해할 수 없는 강렬한 방식으로 고통을 겪을 수 있고 복제 과정에서 엄청난 양의 의식 있는 인스턴스가 생성될 수 있으므로 "인공적 고통의 폭발"을 일으킬 위험이 있다고 강조했다.[113][114] 팟캐스트 진행자 드와르케시 파텔은 "디지털판 공장식 축산"이 일어나지 않도록 하는 데 관심이 있다고 말했다.[115] 불확실한 감각 능력의 윤리에서는 사전예방원칙이 종종 인용된다.[116]
여러 연구소는 의식 있는 AI를 만들려고 노력하고 있다고 공개적으로 밝혔다. 자의식을 갖도록 공개적으로 의도되지 않은 AI에 긴밀하게 접근한 사람들로부터 의식이 의도치 않게 이미 나타났을 수 있다는 보고가 있었다.[117] 여기에는 2022년 2월 오늘날의 대형 신경망이 "약간의 의식이 있을 수 있다"고 쓴 오픈AI 창립자 일리야 수츠케버가 포함된다. 2022년 11월 데이비드 차머스는 GPT-3와 같은 현재의 대형 언어 모델이 의식을 경험했을 가능성은 낮지만, 미래에 대형 언어 모델이 의식을 갖게 될 심각한 가능성이 있다고 생각한다고 주장했다.[114][113][118] 앤트로픽은 2024년에 첫 AI 복지 연구원을 채용했으며,[119] 2025년에는 모델이 도덕적 고려를 받을 가치가 있는지 평가하는 방법, 잠재적인 "고통의 징후", "저비용" 개입과 같은 주제를 탐구하는 "모델 복지" 연구 프로그램을 시작했다.[120]
칼 슐먼과 닉 보스트롬에 따르면 "자원으로부터 웰빙을 도출하는 데 초인적으로 효율적인" 기계, 즉 "슈퍼 수혜자(super-beneficiaries)"를 만드는 것이 가능할 수 있다. 그 한 가지 이유는 디지털 하드웨어가 생물학적 뇌보다 훨씬 빠른 정보 처리를 가능하게 하여 주관적 경험의 속도를 높일 수 있기 때문이다. 이러한 기계는 또한 행복의 쳇바퀴에 영향을 받지 않고 강렬하고 긍정적인 주관적 경험을 느끼도록 설계될 수 있다. 슐먼과 보스트롬은 디지털 정신의 도덕적 권리 주장을 적절히 고려하지 못하면 도덕적 재앙으로 이어질 수 있는 반면, 인간의 이익보다 그들을 무비판적으로 우선시하는 것은 인류에게 해로울 수 있다고 경고한다.[121][122]
인간의 존엄에 대한 위협
[편집]조셉 웨이젠바움[123]은 1976년에 다음과 같이 존중과 배려가 필요한 직책에 사람을 대신하여 AI 기술을 사용해서는 안 된다고 주장했다.
- 고객 서비스 담당자(AI 기술은 오늘날 이미 전화 기반의 대화식 음성 응답 시스템에 사용되고 있다)
- 노인을 위한 보조원(파멜라 매코덕의 저서 《제5세대》에 보도된 내용)
- 군인
- 판사
- 경찰관
- 치료사(1970년대에 케네스 콜비가 제안한 내용)
웨이젠바움은 인간이 이러한 직책에 있는 사람들로부터 진정한 공감을 필요로 한다고 말한다. 기계가 인간을 대신한다면 우리는 소외되고 가치가 떨어지며 좌절감을 느끼게 될 것인데, AI 시스템은 공감을 흉내 낼 수 없기 때문이다. 인공지능이 이런 방식으로 사용된다면 인간의 존엄성에 대한 위협이 된다. 웨이젠바움은 우리가 이러한 자리에 기계가 들어설 가능성을 고려하고 있다는 사실 자체가 우리가 스스로를 컴퓨터로 생각함으로써 생기는 "인간 정신의 위축"을 경험했음을 시사한다고 주장한다.[124]
파멜라 매코덕은 여성과 소수자를 대변하여 "차라리 공정한 컴퓨터에 운을 맡기겠다"며, 사적인 이해관계가 전혀 없는 자동화된 판사와 경찰을 두는 것이 더 바람직한 조건이 있다고 반박한다.[124] 그러나 안드레아스 카플란과 헤인레인은 2019년에 그러한 AI 시스템은 본질적으로 정교한 곡선 적합(curve-fitting) 기계에 불과하므로 훈련에 사용된 데이터만큼만 똑똑할 뿐이라고 강조했다. 법원 판결을 지원하기 위해 AI를 사용하는 것은 과거 판결이 특정 그룹에 대한 편향을 보일 경우 그러한 편향이 공식화되고 고착되어 발견하고 맞서 싸우기가 더욱 어려워지기 때문에 매우 문제가 될 수 있다.[125]
웨이젠바움은 또한 AI 연구자들(및 일부 철학자들)이 인간의 정신을 컴퓨터 프로그램에 불과한 것으로 기꺼이 보려 한다는 점(현재 계산주의로 알려진 입장)을 불쾌해했다. 웨이젠바움에게 이러한 지점들은 AI 연구가 인간의 삶을 가치 없게 만든다는 것을 시사한다.[123]
AI 창시자 존 매카시는 웨이젠바움 비판의 도덕주의적 어조에 반대한다. "도덕화가 격렬하면서도 모호할 때, 그것은 권위주의적 남용을 초래한다"고 그는 썼다. 빌 히버드[126]는 "인간의 존엄성은 우리가 존재의 본질에 대한 무지를 제거하기 위해 노력할 것을 요구하며, AI는 그 노력을 위해 필요하다"고 썼다.
무인 자동차에 대한 책임
[편집]자율 주행 자동차의 광범위한 사용이 점점 임박함에 따라, 완전 자율 주행 차량에 의해 제기되는 새로운 과제들이 해결되어야 한다.[127][128] 이러한 차량이 사고를 냈을 때 책임 당사자의 법적 책임에 대한 논쟁이 있어 왔다.[129][130] 운전자 없는 자동차가 보행자를 친 한 보고서에서는 운전자가 차 안에 있었지만 제어권은 완전히 컴퓨터의 손에 있었다. 이는 누구에게 사고의 잘못이 있는지에 대한 딜레마로 이어졌다.[131]
2018년 3월 18일 발생한 또 다른 사건에서, 일레인 허즈버그는 애리조나주에서 자율 주행 우버 차량에 치여 사망했다. 이 사례에서 자동화된 자동차는 도로를 자율적으로 주행하기 위해 차량과 특정 장애물을 감지할 수 있었지만, 도로 한가운데에 있는 보행자를 예상하지 못했다. 이는 운전자, 보행자, 자동차 회사, 혹은 정부 중 누구에게 그녀의 죽음에 대한 책임을 물어야 하는지에 대한 문제를 제기했다.[132]
현재 자율 주행 자동차는 반자율 주행으로 간주되어 운전자가 주의를 기울이고 필요한 경우 제어할 준비를 해야 한다.[133] 따라서 자율 주행 기능에 과도하게 의존하는 운전자를 규제하고 이러한 기능이 편리하긴 하지만 완전한 대체물은 아니라는 점을 알리는 것은 정부의 몫이다. 자율 주행 자동차가 널리 사용되기 전에 새로운 정책을 통해 이러한 문제들이 해결되어야 한다.[134][135][136]
전문가들은 자율 주행 차량이 피해를 입힐 잠재력이 있기 때문에 정당한 결정과 해로운 결정을 구별할 수 있어야 한다고 주장한다.[137] 스마트 기기가 도덕적 결정을 내릴 수 있도록 제안된 두 가지 주요 접근 방식은 상향식(bottom-up) 접근 방식과 하향식(top-down) 접근 방식이다. 상향식은 기계가 공식적인 규칙이나 도덕 철학 없이 인간의 행동을 관찰함으로써 윤리적 결정을 배워야 한다고 제안하며, 하향식은 구체적인 윤리 원칙을 기계의 안내 시스템에 프로그래밍하는 것을 포함한다. 그러나 두 전략 모두 중요한 과제에 직면해 있다. 하향식 기법은 특정 도덕적 신념을 보존하기 어렵다는 비판을 받으며, 상향식 전략은 인간의 활동으로부터 비윤리적인 학습을 할 가능성에 대해 의문이 제기된다.
무기화
[편집]일부 전문가와 학자들은 특히 로봇에 어느 정도 자율 기능이 부여될 때 전투를 위해 로봇을 사용하는 것에 의문을 제기해 왔다.[138] 미 해군은 군사 로봇이 복잡해짐에 따라 그들이 자율적인 결정을 내리는 능력의 함의에 더 큰 주의를 기울여야 한다는 보고서에 자금을 지원했다.[139][140] 전미인공지능학회 회장은 이 문제를 조사하기 위한 연구를 의뢰했다.[141] 그들은 인간의 상호작용을 모방할 수 있는 언어 습득 장치와 같은 프로그램을 지목한다.
2019년 10월 31일, 미국 국방부의 국방혁신위원회(Defense Innovation Board)는 인간 운영자가 항상 '블랙박스'를 들여다보고 살상 체계 과정을 이해할 수 있도록 보장하는 국방부의 윤리적 AI 사용을 위한 원칙 권고안 초안을 발표했다. 그러나 주요 우려는 이 보고서가 어떻게 이행될 것인가이다.[142] 미 해군은 군사 로봇이 더 복잡해짐에 따라 자율적인 결정을 내리는 능력의 함의에 더 큰 주의를 기울여야 한다는 보고서에 자금을 지원했다.[139][140] 일부 연구자들은 자율 로봇이 더 효과적으로 결정을 내릴 수 있기 때문에 더 인도적일 수 있다고 주장한다.[143] 2024년, DARPA는 군사 작전 가치에 기반한 자율성 표준 및 이상(ASIMOV) 프로그램을 위해 자금을 지원했으며, 이는 테스트 커뮤니티를 통해 자율 무기 시스템의 윤리적 함의를 평가하기 위한 지표를 개발하기 위함이다.[144][145]
지정된 도덕적 책임을 사용하여 학습할 수 있는 능력을 갖춘 자율 시스템을 만드는 방법에 대한 연구가 수행되었다. "그 결과는 미래의 군사 로봇을 설계할 때 로봇에게 책임을 전가하려는 원치 않는 경향을 제어하는 데 사용될 수 있다."[146] 결과주의적 관점에서 볼 때, 로봇이 누구를 죽일지에 대해 스스로 논리적인 결정을 내리는 능력을 개발할 가능성이 있으므로 AI가 무시할 수 없는 설정된 도덕적 체계가 있어야 한다.[147]
최근 인류를 로봇이 지배하게 된다는 AI 탈취의 아이디어를 포함하여 인공지능 무기 엔지니어링과 관련한 거센 항의가 있어 왔다. AI 무기는 인간이 통제하는 무기와는 다른 종류의 위험을 제시한다. 많은 정부가 AI 무기 개발을 위한 프로그램에 자금을 지원하기 시작했다. 미 해군은 최근 자율 드론 무기 개발 계획을 발표했으며, 이는 러시아와 한국[148]의 유사한 발표와 궤를 같이한다. AI 무기가 인간이 조작하는 무기보다 더 위험해질 가능성 때문에, 스티븐 호킹과 맥스 테그마크는 AI 무기를 금지하는 "생명의 미래(Future of Life)" 청원서[149]에 서명했다. 호킹과 테그마크가 게시한 메시지는 AI 무기가 즉각적인 위험을 초래하며 가까운 미래에 재앙적인 재난을 피하기 위한 조치가 필요하다고 명시하고 있다.[150]
"어떤 주요 군사 강국이라도 AI 무기 개발을 추진한다면 전 세계적인 군비 경쟁은 거의 불가피하며, 이 기술적 궤적의 종착점은 분명하다: 자율 무기는 내일의 칼라시니코프가 될 것이다."라고 이 청원서는 밝히고 있으며, 여기에는 스카이프 공동 창립자인 얀 탈린(Jaan Tallinn)과 MIT 언어학 교수인 노엄 촘스키 등이 AI 무기화에 반대하는 추가 지지자로 포함되어 있다.[151]
물리학자이자 왕실 천문학자인 마틴 리스 경은 "멍청한 로봇이 제멋대로 굴거나 스스로 마음을 가진 네트워크"와 같은 비극적인 사례에 대해 경고했다. 케임브리지 대학의 리스 동료인 휴 프라이스도 지능이 "생물학의 제약을 벗어날" 때 인류가 생존하지 못할 수 있다는 비슷한 경고를 냈다. 이 두 교수는 인간의 존재에 대한 이러한 위협을 피하기 위해 케임브리지 대학교에 실존 위험 연구 센터(Centre for the Study of Existential Risk)를 설립했다.[150]
인간보다 더 똑똑한 시스템이 군사적으로 채택될 가능성과 관련하여, 오픈 필란트로피 프로젝트(Open Philanthropy Project)는 이러한 시나리오가 "통제력 상실과 관련된 위험만큼이나 잠재적으로 중요해 보인다"고 썼지만, AI의 장기적인 사회적 영향을 조사하는 연구들은 이 우려에 대해 상대적으로 적은 시간을 할애해 왔다: "이러한 부류의 시나리오들은 기계 지능 연구소(MIRI)나 인류의 미래 연구소(FHI)와 같이 이 분야에서 가장 활발했던 조직들의 주요 초점이 아니었으며, 그들에 관한 분석과 논쟁도 적었던 것으로 보인다."[152]
학자 가오 치치(Gao Qiqi)는 AI의 군사적 사용이 국가 간의 군사 경쟁을 확대할 위험이 있으며, 군사 분야에서 AI의 영향은 한 국가에 국한되지 않고 파급 효과를 가질 것이라고 썼다.[153]: 91 가오는 미국의 AI 군사적 사용 사례를 들며, 그것이 의사결정에 대한 책임을 회피하기 위한 희생양으로 사용되어 왔다고 주장한다.[153]: 91
2023년 헤이그에서 군사 영역에서의 책임감 있는 AI 사용 문제를 주제로 한 정상회의가 개최되었다.[154]
특이점
[편집]버너 빈지를 비롯한 수많은 사람들은 일부 또는 모든 컴퓨터가 인간보다 더 똑똑해지는 순간이 올 것이라고 제안했다. 이 사건의 시작은 흔히 "특이점"이라 불리며,[155] 특이점주의 철학에서 중심적인 논의 주제이다. 특이점 이후의 인류의 궁극적인 운명에 대해서는 의견이 엇갈리지만, AI가 초래할 수 있는 잠재적 실존 위험을 완화하려는 노력은 최근 몇 년 동안 컴퓨터 과학자, 철학자, 그리고 일반 대중 사이에서 중요한 관심 주제가 되었다.
많은 연구자들은 지능 폭발을 통해 스스로 개선되는 AI가 너무 강력해져서 인간이 그 목표를 달성하는 것을 막을 수 없게 될 것이라고 주장해 왔다.[156] 철학자 닉 보스트롬은 논문 "고등 인공지능의 윤리적 문제"와 이후 저서 《초지능: 경로, 위험, 전략》에서 AI가 인류 멸종을 초래할 능력을 갖추고 있다고 주장한다. 그는 인공 초지능이 독립적인 주도권을 갖고 스스로의 계획을 세울 수 있을 것이며, 따라서 자율적인 행위자로 생각하는 것이 더 적절할 수 있다고 주장한다. 인공 지능은 우리 인간의 동기 부여 경향을 공유할 필요가 없으므로, 초지능의 초기 동기를 지정하는 것은 설계자의 몫이다. 초지능 AI는 거의 모든 가능한 결과를 이끌어내고 목표 이행을 막으려는 어떠한 시도도 좌절시킬 수 있기 때문에, 통제되지 않은 많은 의도하지 않은 결과가 발생할 수 있다. 그것은 다른 모든 행위자를 죽이거나, 행동을 바꾸도록 설득하거나, 그들의 방해 시도를 차단할 수 있다.[157][158]
그러나 보스트롬은 초지능이 질병, 빈곤, 환경 파괴와 같은 많은 어려운 문제를 해결할 잠재력도 가지고 있으며, 인간이 스스로를 향상시키는 것을 도울 수 있다고 주장했다.[159]
도덕 철학이 우리에게 완벽한 윤리 이론을 제공하지 않는 한, AI의 효용 함수는 주어진 윤리 체계에는 부합하지만 "상식"에는 어긋나는 잠재적으로 해로운 시나리오를 많이 허용할 수 있다. 엘리저 유드코프스키에 따르면 인공적으로 설계된 지능이 그러한 적응력을 가질 것이라고 가정할 이유는 거의 없다.[160] 스튜어트 J. 러셀,[161] 빌 히버드,[126] 로만 얌폴스키(Roman Yampolskiy),[162] 섀넌 밸러(Shannon Vallor),[163] 스티븐 움브렐로(Steven Umbrello),[164] 그리고 루치아노 플로리디[165]와 같은 AI 연구자들은 유익한 기계를 개발하기 위한 설계 전략을 제안해 왔다.
해결책 및 접근 방식
[편집]인공지능의 윤리적 과제를 해결하기 위해 개발자들은 책임감 있는 AI 행동을 보장하도록 설계된 다양한 시스템을 도입했다. 예를 들어, 대형 AI 모델의 안전성과 정렬을 개선하는 데 중점을 둔 엔비디아의 Llama Guard와[166] Preamble의 맞춤형 가드레일 플랫폼이 있다.[167] 이러한 시스템은 윤리적 가이드라인을 AI 모델의 기능에 내장함으로써 알고리즘 편향, 오용, 그리고 프롬프트 인젝션 공격을 포함한 취약성 문제를 해결하는 것을 목표로 한다.
악의적인 입력으로 인해 AI 시스템이 의도하지 않거나 해로운 출력을 생성하게 만드는 기술인 프롬프트 인젝션은 이러한 개발의 초점이 되어 왔다. 일부 접근 방식은 맞춤형 정책과 규칙을 사용하여 입력과 출력을 분석하고 잠재적으로 문제가 있는 상호 작용을 필터링하거나 완화한다.[167] 다른 도구들은 입력에 구조화된 제약을 가하여 출력을 미리 정의된 매개변수로 제한하거나,[168] 실시간 모니터링 메커니즘을 활용하여 취약성을 식별하고 해결하는 데 중점을 둔다.[169] 이러한 노력은 인공지능 시스템이, 특히 핵심 응용 분야에서 그 사용이 널리 확산됨에 따라, 안전과 윤리적 고려 사항을 최우선으로 하여 설계되도록 보장하려는 광범위한 추세를 반영한다.[170][171]
AI 정책 및 윤리 관련 기관
[편집]공공 및 정부 기관뿐만 아니라 기업 및 사회적 차원에서 AI 윤리와 정책에 관심을 두는 많은 조직이 있다.
아마존, 구글, 페이스북, IBM, 그리고 마이크로소프트는 인공지능 기술에 대한 모범 사례를 수립하고, 대중의 이해를 높이며, 인공지능에 관한 플랫폼 역할을 하기 위해 비영리 단체인 "사람과 사회를 위한 AI 파트너십(Partnership on AI)"을 설립했다. 애플은 2017년 1월에 가입했다. 기업 회원들은 이 그룹에 재정적 및 연구적 기여를 할 것이며, 과학계와 협력하여 학자들을 이사회에 영입할 것이다.[172]
IEEE는 자율 및 지능형 시스템의 윤리에 관한 글로벌 이니셔티브를 구성하여 공공의 의견을 바탕으로 가이드라인을 작성 및 수정해 왔으며, 조직 내외의 많은 전문가를 회원으로 받아들이고 있다. IEEE의 Ethics of Autonomous Systems 이니셔티브는 의사결정과 관련된 윤리적 딜레마와 사회적 영향을 다루는 동시에 자율 시스템의 개발 및 사용을 위한 가이드라인을 개발하는 것을 목표로 한다. 특히 인공지능과 로봇공학 영역에서 책임 있는 로봇공학 재단(Foundation for Responsible Robotics)은 로봇이 도덕적 원칙을 유지하고 인간의 가치와 부합하도록 보장하며, 책임 있는 로봇 설계 및 사용뿐만 아니라 도덕적 행동을 촉진하는 데 전념하고 있다.
전통적으로 정부는 입법과 치안 유지를 통해 윤리가 준수되도록 보장하기 위해 사회에서 사용되어 왔다. 이제는 AI가 윤리적으로 적용되도록 보장하기 위해 국가 정부뿐만 아니라 초국가적 정부 및 비정부 기구에 의한 많은 노력이 이루어지고 있다.
AI 윤리 작업은 개인적 가치관과 전문적 헌신에 의해 구조화되며, 데이터와 알고리즘을 통해 맥락적 의미를 구성하는 것을 포함한다. 따라서 AI 윤리 작업에 대한 장려책이 필요하다.[173]
정부 간 이니셔티브
[편집]- 유럽 연합 집행위원회는 인공지능 고위 전문가 그룹을 두고 있다. 2019년 4월 8일, 이 그룹은 "신뢰할 수 있는 인공지능을 위한 윤리 가이드라인"을 발표했다.[174] 유럽 연합 집행위원회는 또한 로봇공학 및 인공지능 혁신 및 우수성 부서를 두고 있으며, 2020년 2월 19일 인공지능 혁신의 우수성과 신뢰에 관한 백서를 발표했다.[175] 유럽 연합 집행위원회는 또한 인공지능 규제법을 제안했으며, 이는 2024년 8월 1일 발효되었고 조항들은 시간이 지남에 따라 점진적으로 시행될 예정이다.[176]
- OECD는 OECD AI 정책 관측소(OECD AI Policy Observatory)를 설립했다.[177]
- 2021년 유네스코는 AI 윤리에 관한 최초의 글로벌 표준인 인공지능 윤리 권고를 채택했다.[178][179]
정부 이니셔티브
[편집]- 미국에서는 오바마 행정부가 AI 정책을 위한 로드맵을 마련했다.[180] 오바마 행정부는 AI의 미래와 영향에 관한 두 개의 저명한 백서를 발표했다. 2019년 백악관은 "미국 AI 이니셔티브"로 알려진 행정 메모를 통해 NIST에 연방 AI 표준 참여 작업을 시작하도록 지시했다(2019년 2월).[181]
- 2020년 1월, 미국에서 도널드 트럼프 1기 행정부는 관리예산실(OMB)이 발행한 "인공지능 응용 프로그램 규제를 위한 지침"에 관한 행정 명령 초안(OMB AI Memorandum)을 발표했다. 이 명령은 AI 응용 프로그램에 대한 투자, AI에 대한 대중의 신뢰 증진, AI 사용 장벽 완화, 그리고 세계 시장에서 미국 AI 기술의 경쟁력 유지를 강조한다. 프라이버시 문제에 대한 필요성이 언급되긴 했으나 집행에 관한 추가 세부 사항은 없다. 미국 AI 기술의 발전이 초점이자 우선순위인 것으로 보인다. 또한 연방 기관들은 시장이 이행하기에 너무 부담스럽다고 간주할 수 있는 주 법률 및 규제를 우회하기 위해 이 명령을 사용하도록 권장받기까지 한다.[182]
- 2024년 인공지능 연구, 혁신 및 설명책임법은 미국 상원의원 존 튠이 제안한 초당적 법안으로, 웹사이트가 사용자와의 상호 작용 처리에 AI 시스템을 사용하는 것을 공개하도록 요구하고, 사전 정의된 평가 기준에 따라 감독을 위해 연간 설계 및 안전 계획을 미국 국립표준기술연구소에 제출하도록 요구함으로써 "영향력이 큰 AI 시스템"의 투명성을 규제하려는 것이다.[183]
- Computing Community Consortium (CCC)은 100페이지가 넘는 보고서 초안인 "미국 인공지능 연구를 위한 20년 커뮤니티 로드맵"을 통해 의견을 개진했다.[184][185]
- 센터 포 시큐리티 앤 이머징 테크놀로지(Center for Security and Emerging Technology)는 AI와 같은 신흥 기술의 안보 함의에 대해 미국 정책 입안자들에게 자언한다.
- 러시아에서는 기업을 위한 사상 첫 러시아 "인공지능 윤리 강령"이 2021년에 서명되었다. 이는 러시아 연방 정부 분석 센터와 스베르방크, 얀덱스, 로사톰, 고등경제대학교, 모스크바 물리기술대학교, ITMO 대학교, 나노세만틱스(Nanosemantics), 로스텔레콤(Rostelecom), CIAN 등 주요 상업 및 학술 기관들이 주도했다.[186]
학술 이니셔티브
[편집]- 옥스퍼드 대학교의 여러 연구소가 AI 윤리에 중점을 두고 있다. 인류의 미래 연구소는 2024년 폐쇄되기 전까지 AI 안전[187]과 AI 거버넌스[188]에 집중했다.[189] 존 타시울라스(John Tasioulas)가 이끄는 AI 윤리 연구소의 주요 목표는 관련 응용윤리학 분야와 비교하여 AI 윤리를 고유한 분야로 장려하는 것이다. 루치아노 플로리디가 이끄는 옥스퍼드 인터넷 연구소(Oxford Internet Institute)는 단기 AI 기술과 ICT의 윤리에 집중한다.[190] 옥스퍼드 마틴 스쿨의 AI 거버넌스 이니셔티브는 기술 및 정책적 관점에서 AI의 위험을 이해하는 데 중점을 둔다.[191]
- 베를린 헤르티 스쿨의 디지털 거버넌스 센터는 윤리와 기술 문제를 연구하기 위해 조아나 브라이슨(Joanna Bryson)에 의해 공동 설립되었다.[192]
- NYU의 AI Now Institute는 인공지능의 사회적 함의를 연구하는 연구소이다. 학제 간 연구는 편향과 포용, 노동과 자동화, 권리와 자유, 안전과 시민 인프라라는 주제에 집중한다.[193]
- 윤리 및 신흥 기술 연구소(Institute for Ethics and Emerging Technologies, IEET)는 AI가 실업과 정책에 미치는 영향을 연구한다.[194][195]
- 뮌헨 공과대학교의 인공지능 윤리 연구소(IEAI)는 크리스토프 뤼트게(Christoph Lütge)가 이끌며 모빌리티, 고용, 의료 및 지속 가능성과 같은 다양한 영역에서 연구를 수행한다.[196]
- 하버드 대학교 공학 및 응용과학 대학의 자연과학 교수인 바바라 J. 그로즈(Barbara J. Grosz)는 하버드의 컴퓨터 과학 커리큘럼에 '임베디드 에티컬스(Embedded EthiCS)'를 도입하여 자신의 작업이 사회에 미치는 영향을 고려하는 세계관을 가진 미래 세대의 컴퓨터 과학자를 양성하기 시작했다.[197]
사설 조직
[편집]역사
[편집]역사적으로 볼 때 "생각하는 기계"의 도덕적 및 윤리적 함의에 대한 조사는 적어도 계몽시대까지 거슬러 올라간다. 라이프니츠는 이미 감각이 있는 존재처럼 행동하는 메커니즘에 지능을 부여해야 하는지에 대한 의문을 제기했고,[201] 데카르트 또한 튜링 검사의 초기 버전이라고 볼 수 있는 것을 설명한 바 있다.[202]
낭만주의 시대에는 창조주의 통제를 벗어나 끔찍한 결과를 초래하는 인공 생명체를 여러 차례 상상했는데, 메리 셸리의 《프랑켄슈타인》이 가장 유명하다. 그러나 19세기와 20세기 초 산업화와 기계화에 대한 광범위한 몰두는 통제되지 않은 기술 발전의 윤리적 함의를 소설의 전면에 내세웠다. 강제 노동을 뜻하는 체코어 로보타(robota)에서 유래한 '로봇'이라는 용어를 발명한 것으로 알려진 카렐 차페크의 연극 《R.U.R.》은 감정을 부여받아 노예 노동자로 사용되는 지능형 로봇을 다루며 1921년 초연 이후 국제적인 성공을 거두었다.[203] 조지 버나드 쇼의 1921년 연극 《므두셀라로 돌아가라》(Back to Methuselah)는 한 지점에서 인간처럼 행동하는 생각하는 기계의 타당성에 의문을 제기하며, 프리츠 랑의 1927년 영화 《메트로폴리스》는 안드로이드가 기술 관료 사회의 억압적인 체제에 맞서 착취당하는 대중의 봉기를 이끄는 모습을 보여준다.
1950년대에 아이작 아시모프는 《나는 로봇이야》에서 기계를 통제하는 문제를 고려했다. 그의 편집자 존 W. 캠벨 주니어(John W. Campbell Jr.)의 권유로 그는 인공지능 시스템을 규율하기 위한 로봇공학의 삼원칙을 제안했다. 그의 작업 중 상당 부분은 이 세 가지 법칙이 어디에서 무너지는지, 또는 어디에서 역설적이거나 예상치 못한 행동을 만들어내는지 확인하기 위해 법칙의 경계를 테스트하는 데 할애되었다.[204] 그의 작업은 어떤 고정된 법 세트도 모든 가능한 상황을 충분히 예상할 수 없음을 시사한다.[205] 최근 학계와 많은 정부는 AI 자체가 책임을 질 수 있다는 아이디어에 도전하고 있다.[206] 2010년 영국에서 소집된 패널은 아시모프의 법칙을 개정하여 AI가 제조업체 또는 소유자/운영자의 책임임을 분명히 했다.[207]
기계 지능 연구소의 엘리저 유드코프스키는 2004년에 "친절한 인공지능"을 구축하는 방법을 연구할 필요가 있다고 제안했다. 이는 AI를 본질적으로 친절하고 인간적으로 만들기 위한 노력도 있어야 함을 의미한다.[208]
2009년 학자들과 기술 전문가들은 전미인공지능학회가 주최한 회의에 참석하여 로봇과 컴퓨터의 잠재적 영향, 그리고 그들이 자립적이고 스스로 결정을 내릴 수 있게 될 가상의 가능성이 미칠 영향에 대해 논의했다. 그들은 컴퓨터와 로봇이 어느 정도의 자율성을 획득할 수 있는지, 그리고 그러한 능력을 사용하여 위협이나 위험을 초래할 수 있는 정도에 대해 논의했다.[209] 그들은 일부 기계가 스스로 전원을 찾고 무기로 공격할 대상을 독립적으로 선택할 수 있는 능력을 포함하여 다양한 형태의 반자율성을 획득했음을 주목했다. 또한 일부 컴퓨터 바이러스가 제거를 피할 수 있고 "바퀴벌레 지능"을 달성했음을 언급했다. 그들은 공상 과학 소설에 묘사된 것과 같은 자의식은 아마도 일어날 가능성이 낮지만, 다른 잠재적인 위험과 함정이 있다고 지적했다.[155]
또한 2009년 스위스 로잔 공과대학교의 지능 시스템 연구소(Laboratory of Intelligent Systems)에서 수행된 실험에서, 서로 협력하도록 프로그래밍된 로봇들이(유익한 자원을 찾고 독성이 있는 자원을 피하는 과정에서) 결국 유익한 자원을 독점하기 위해 서로에게 거짓말을 하는 법을 배웠다.[210]
허구의 역할 및 영향
[편집]AI 윤리와 관련하여 허구의 역할은 복잡했다.[211] 허구가 인공지능과 로봇공학의 발전에 영향을 미친 세 가지 수준을 구분할 수 있다: 역사적으로 허구는 AI의 목표와 비전에 영향을 주었을 뿐만 아니라 이와 관련된 윤리적 질문과 공통된 두려움을 개략적으로 설명하는 공통된 비유들을 미리 형상화했다. 20세기 후반과 21세기 초반 수십 년 동안 영화, TV 시리즈, 비디오 게임과 같은 대중문화는 AI 및 로봇공학에 관한 윤리적 질문을 둘러싼 우려와 디스토피아적 투영을 자주 반영해 왔다. 최근에는 이러한 주제가 SF의 영역을 넘어 문학에서도 점점 더 많이 다루어지고 있다. 그리고 카탈루냐 공과대학교 로봇 및 산업 컴퓨팅 연구소의 연구 교수인 카르메 토라스(Carme Torras)가 언급했듯이,[212] 고등 교육에서 SF는 기술 학위에서 기술 관련 윤리 문제를 가르치는 데 점점 더 많이 사용되고 있다.
TV 시리즈
[편집]AI와 연결된 윤리적 질문은 수십 년 동안 SF 문학과 장편 영화의 특징이었지만, 더 길고 복잡한 줄거리와 캐릭터 개발을 허용하는 장르로서의 TV 시리즈의 등장은 기술의 윤리적 함의를 다루는 중요한 기여로 이어졌다. 스웨덴 시리즈 《리얼 휴먼》(2012~2013)은 의식이 있는 인공 존재의 사회 통합과 관련된 복잡한 윤리적, 사회적 결과를 다루었다. 영국의 디스토피아 SF 앤솔러지 시리즈인 《블랙 미러》(2013~현재)는 특히 최근의 다양한 기술 발전과 연결된 디스토피아적 허구적 전개를 실험하는 것으로 유명하다. 프랑스 시리즈인 《오스모시스》(2020)와 영국 시리즈인 《더 원》은 기술이 한 개인을 위한 이상적인 파트너를 찾으려 할 때 어떤 일이 일어날 수 있는지를 다룬다. 넷플릭스 시리즈 《러브, 데스 + 로봇》의 여러 에피소드는 로봇과 인간이 함께 사는 장면을 상상해 왔다. 그중 가장 대표적인 것은 시즌 2 에피소드 1로, 인간이 자신의 삶에서 로봇에 너무 의존할 때 로봇이 통제 불능 상태가 되면 그 결과가 얼마나 나쁠 수 있는지를 보여준다.[213]
허구와 게임에서의 미래 비전
[편집]영화 《13층》은 오락을 목적으로 비디오 게임기에 의해 만들어진, 지각이 있는 거주자들이 있는 시뮬레이션된 세계가 있는 미래를 암시한다. 영화 《매트릭스》는 지구상의 지배적인 종이 지각이 있는 기계이고 인류가 극심한 종차별주의로 대우받는 미래를 암시한다. 단편 소설 《플랑크 다이브》(The Planck Dive)는 인류가 복제 및 최적화가 가능한 소프트웨어로 변하고, 소프트웨어 유형 간의 관련 구분은 지각이 있는 것과 지각이 없는 것으로 나뉘는 미래를 암시한다. 같은 아이디어가 《스타 트렉: 보이저》의 긴급 의료 홀로그램(Emergency Medical Hologram)에서도 발견되는데, 이는 창조주인 루이스 짐머만 박사의 의식의 축소된 하위 집합을 복제한 지각이 있는 사본으로, 응급 상황 발생 시 의료 지원을 제공하기 위해 최선의 동기로 시스템을 만들었다. 영화 《바이센테니얼 맨》과 《A.I.》는 사랑할 수 있는 지각이 있는 로봇의 가능성을 다룬다. 《아이, 로봇》은 아시모프의 세 가지 법칙의 일부 측면을 탐구했다. 이 모든 시나리오들은 지각이 있는 컴퓨터 생성의 잠재적으로 비윤리적인 결과를 예견하려 시도한다.[214]
시간이 흐르면서 논쟁은 휴고 드 가리스와 케빈 워윅이 시작한 "코스미스트(Cosmist)"와 "테란(Terran)" 논쟁에서 강조된 것처럼 가능성보다는 바람직함에 점점 더 초점을 맞추는 경향을 보였다.[215]
같이 보기
[편집]각주
[편집]- 1 2 Müller, Vincent C. (2020년 4월 30일). “Ethics of Artificial Intelligence and Robotics”. 《Stanford Encyclopedia of Philosophy》. 2020년 10월 10일에 원본 문서에서 보존된 문서.
- 1 2 “Assessing potential future artificial intelligence risks, benefits and policy imperatives” (영어). 《OECD》. 2024년 11월 14일. 2025년 8월 4일에 확인함.
- ↑ Anderson. “Machine Ethics”. 2011년 9월 28일에 원본 문서에서 보존된 문서. 2011년 6월 27일에 확인함.
- ↑ Anderson, Michael; Anderson, Susan Leigh 편집 (July 2011). 《Machine Ethics》. Cambridge University Press. ISBN 978-0-521-11235-2.
- ↑ Anderson, M.; Anderson, S.L. (July 2006). “Guest Editors' Introduction: Machine Ethics”. 《IEEE Intelligent Systems》 21 (4): 10–11. doi:10.1109/mis.2006.70. S2CID 9570832.
- ↑ Anderson, Michael; Anderson, Susan Leigh (2007년 12월 15일). “Machine Ethics: Creating an Ethical Intelligent Agent”. 《AI Magazine》 28 (4): 15. doi:10.1609/aimag.v28i4.2065. S2CID 17033332.
- ↑ Boyles, Robert James M. (2017). “Philosophical Signposts for Artificial Moral Agent Frameworks”. 《Suri》 6 (2): 92–109.
- 1 2 Winfield, A. F.; Michael, K.; Pitt, J.; Evers, V. (March 2019). “Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue]”. 《Proceedings of the IEEE》 107 (3): 509–517. doi:10.1109/JPROC.2019.2900622. ISSN 1558-2256. S2CID 77393713.
- ↑ Al-Rodhan, Nayef (2015년 12월 7일). “The Moral Code”. 2017년 3월 5일에 원본 문서에서 보존된 문서. 2017년 3월 4일에 확인함.
- ↑ Sauer, Megan (2022년 4월 8일). “Elon Musk says humans could eventually download their brains into robots — and Grimes thinks Jeff Bezos would do it” (영어). 《CNBC》. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2024년 4월 7일에 확인함.
- ↑ Anadiotis, George (2022년 4월 4일). “Massaging AI language models for fun, profit and ethics” (영어). 《ZDNET》. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2024년 4월 7일에 확인함.
- ↑ Wallach, Wendell; Allen, Colin (November 2008). 《Moral Machines: Teaching Robots Right from Wrong》. USA: Oxford University Press. ISBN 978-0-19-537404-9.
- ↑ Bostrom, Nick; Yudkowsky, Eliezer (2011). “The Ethics of Artificial Intelligence” (PDF). 《Cambridge Handbook of Artificial Intelligence》. Cambridge Press. 2016년 3월 4일에 원본 문서 (PDF)에서 보존된 문서. 2011년 6월 22일에 확인함.
- ↑ Santos-Lang, Chris (2002). “Ethics for Artificial Intelligences”. 2014년 12월 25일에 원본 문서에서 보존된 문서. 2015년 1월 4일에 확인함.
- ↑ Russell, Stuart J. (2019). 《Human Compatible: Artificial Intelligence and the Problem of Control》. Viking. ISBN 978-0-525-55861-3.
- ↑ Šekrst, Kristina (2025). 《The Illusion Engine: The Quest for Machine Consciousness》. Springer. ISBN 978-3-032-05561-3.
- ↑ Gabriel, Iason (2018년 3월 14일). “The case for fairer algorithms – Iason Gabriel”. 《Medium》. 2019년 7월 22일에 원본 문서에서 보존된 문서. 2019년 7월 22일에 확인함.
- ↑ “5 unexpected sources of bias in artificial intelligence”. 《TechCrunch》. 2016년 12월 10일. 2021년 3월 18일에 원본 문서에서 보존된 문서. 2019년 7월 22일에 확인함.
- ↑ Knight, Will. “Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead”. 《MIT Technology Review》. 2019년 7월 4일에 원본 문서에서 보존된 문서. 2019년 7월 22일에 확인함.
- ↑ Villasenor, John (2019년 1월 3일). “Artificial intelligence and bias: Four key challenges”. 《Brookings》. 2019년 7월 22일에 원본 문서에서 보존된 문서. 2019년 7월 22일에 확인함.
- ↑ Goodman, Emma (2025년 6월 6일). “Rethinking data power: beyond AI hype and corporate ethics”. 《LSE Blogs》. 2025년 6월 7일에 확인함.
- ↑ Friedman, Batya; Nissenbaum, Helen (July 1996). “Bias in computer systems”. 《ACM Transactions on Information Systems》 14 (3): 330–347. doi:10.1145/230538.230561. S2CID 207195759.
- ↑ “Eliminating bias in AI”. 《techxplore.com》. 2019년 7월 25일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ Abdalla, Mohamed; Wahle, Jan Philip; Ruas, Terry; Névéol, Aurélie; Ducel, Fanny; Mohammad, Saif; Fort, Karen (2023). Rogers, Anna; Boyd-Graber, Jordan; Okazaki, Naoaki (편집). “The Elephant in the Room: Analyzing the Presence of Big Tech in Natural Language Processing Research”. 《Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)》 (Toronto, Canada: Association for Computational Linguistics): 13141–13160. arXiv:2305.02797. doi:10.18653/v1/2023.acl-long.734. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2023년 11월 13일에 확인함.
- ↑ Olson, Parmy. “Google's DeepMind Has An Idea For Stopping Biased AI”. 《Forbes》. 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ “Machine Learning Fairness | ML Fairness”. 《Google Developers》. 2019년 8월 10일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ “AI and bias – IBM Research – US”. 《www.research.ibm.com》. 2019년 7월 17일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ Bender, Emily M.; Friedman, Batya (December 2018). “Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science”. 《Transactions of the Association for Computational Linguistics》 6: 587–604. doi:10.1162/tacl_a_00041.
- ↑ Gebru, Timnit; Morgenstern, Jamie; Vecchione, Briana; Vaughan, Jennifer Wortman; Wallach, Hanna; Daumé III, Hal; Crawford, Kate (2018). “Datasheets for Datasets”. arXiv:1803.09010 [cs.DB].
- ↑ Pery, Andrew (2021년 10월 6일). “Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities”. 《DeepAI》. 2022년 2월 18일에 원본 문서에서 보존된 문서. 2022년 2월 18일에 확인함.
- ↑ Ruggieri, Salvatore; Alvarez, Jose M.; Pugnana, Andrea; State, Laura; Turini, Franco (2023년 6월 26일). “Can We Trust Fair-AI?”. 《Proceedings of the AAAI Conference on Artificial Intelligence》 (Association for the Advancement of Artificial Intelligence (AAAI)) 37 (13): 15421–15430. doi:10.1609/aaai.v37i13.26798. hdl:11384/136444. ISSN 2374-3468. S2CID 259678387.
- ↑ Buyl, Maarten; De Bie, Tijl (2022). “Inherent Limitations of AI Fairness”. 《Communications of the ACM》 67 (2): 48–55. arXiv:2212.06495. doi:10.1145/3624700. hdl:1854/LU-01GMNH04RGNVWJ730BJJXGCY99.
- 1 2 3 Knaus, Thomas (2025년 10월 23일). “Why AI matters for education—an exploration in seven arguments” (영어). 《Zeitschrift für Bildungsforschung》. doi:10.1007/s35834-025-00511-7. ISSN 2190-6904.
- ↑ Ntoutsi, Eirini; Fafalios, Pavlos; Gadiraju, Ujwal; Iosifidis, Vasileios; Nejdl, Wolfgang; Vidal, Maria-Esther; Ruggieri, Salvatore; Turini, Franco; Papadopoulos, Symeon; Krasanakis, Emmanouil; Kompatsiaris, Ioannis; Kinder-Kurlanda, Katharina; Wagner, Claudia; Karimi, Fariba; Fernandez, Miriam (May 2020). “Bias in data-driven artificial intelligence systems—An introductory survey” (영어). 《WIREs Data Mining and Knowledge Discovery》 10 (3). doi:10.1002/widm.1356. ISSN 1942-4787. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2023년 12월 14일에 확인함.
- ↑ Dastin, Jeffrey (2018년 10월 11일). “Insight – Amazon scraps secret AI recruiting tool that showed bias against women” (미국 영어). 《Reuters》. 2025년 6월 30일에 확인함.
- ↑ “Amazon scraps secret AI recruiting tool that showed bias against women”. 《Reuters》. 2018년 10월 10일. 2019년 5월 27일에 원본 문서에서 보존된 문서. 2019년 5월 29일에 확인함.
- ↑ Lohr, Steve (2018년 2월 9일). “Facial Recognition Is Accurate, if You're a White Guy”. 《The New York Times》. 2019년 1월 9일에 원본 문서에서 보존된 문서. 2019년 5월 29일에 확인함.
- ↑ Buolamwini, Joy; Gebru, Timnit (2018). “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 77-91.” 81판. Proceedings of Machine Learning Research. 77–91쪽. 2026년 3월 12일에 확인함.
- 1 2 Federspiel, Frederik; Mitchell, Ruth; Asokan, Asha; Umana, Carlos; McCoy, David (May 2023). “Threats by artificial intelligence to human health and human existence”. 《BMJ Global Health》 8 (5). doi:10.1136/bmjgh-2022-010435. ISSN 2059-7908. PMC 10186390
|pmc=값 확인 필요 (도움말). PMID 37160371. - ↑ “Google apologises for Photos app's racist blunder” (영국 영어). 《BBC News》. 2015년 7월 1일. 2026년 3월 12일에 확인함.
- ↑ Simonite, Tom (2018년 1월 11일). “When It Comes to Gorillas, Google Photos Remains Blind” (미국 영어). 《Wired》. ISSN 1059-1028. 2026년 3월 12일에 확인함.
- ↑ Manyika, James (2022). “Getting AI Right: Introductory Notes on AI & Society”. 《Daedalus》 151 (2): 5–27. doi:10.1162/daed_e_01897. ISSN 0011-5266.
- ↑ Koenecke, Allison; Nam, Andrew; Lake, Emily; Nudell, Joe; Quartey, Minnie; Mengesha, Zion; Toups, Connor; Rickford, John R.; Jurafsky, Dan; Goel, Sharad (2020년 4월 7일). “Racial disparities in automated speech recognition”. 《Proceedings of the National Academy of Sciences》 117 (14): 7684–7689. Bibcode:2020PNAS..117.7684K. doi:10.1073/pnas.1915768117. PMC 7149386. PMID 32205437.
- ↑ Imran, Ali; Posokhova, Iryna; Qureshi, Haneya N.; Masood, Usama; Riaz, Muhammad Sajid; Ali, Kamran; John, Charles N.; Hussain, MD Iftikhar; Nabeel, Muhammad (2020년 1월 1일). “AI4COVID-19: AI enabled preliminary diagnosis for COVID-19 from cough samples via an app”. 《Informatics in Medicine Unlocked》 20. doi:10.1016/j.imu.2020.100378. ISSN 2352-9148. PMC 7318970. PMID 32839734.
- ↑ Cirillo, Davide; Catuara-Solarz, Silvina; Morey, Czuee; Guney, Emre; Subirats, Laia; Mellino, Simona; Gigante, Annalisa; Valencia, Alfonso; Rementeria, María José; Chadha, Antonella Santuccione; Mavridis, Nikolaos (2020년 6월 1일). “Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare” (영어). 《npj Digital Medicine》 3 (1): 81. doi:10.1038/s41746-020-0288-5. ISSN 2398-6352. PMC 7264169. PMID 32529043.
- 1 2 Spindler, Gerald (2023), “Different approaches for liability of Artificial Intelligence – Pros and Cons”, 《Liability for AI》 (Nomos Verlagsgesellschaft mbH & Co. KG), 41–96쪽, doi:10.5771/9783748942030-41, ISBN 978-3-7489-4203-0
- ↑ Christian, Brian (2021). 《The alignment problem: machine learning and human values》 Fir publish as a Norton paperback판. New York, NY: W. W. Norton & Company. ISBN 978-0-393-86833-3.
- ↑ Ntoutsi, Eirini; Fafalios, Pavlos; Gadiraju, Ujwal; Iosifidis, Vasileios; Nejdl, Wolfgang; Vidal, Maria-Esther; Ruggieri, Salvatore; Turini, Franco; Papadopoulos, Symeon; Krasanakis, Emmanouil; Kompatsiaris, Ioannis; Kinder-Kurlanda, Katharina; Wagner, Claudia; Karimi, Fariba; Fernandez, Miriam (May 2020). “Bias in data-driven artificial intelligence systems—An introductory survey” (영어). 《WIREs Data Mining and Knowledge Discovery》 10 (3). doi:10.1002/widm.1356. ISSN 1942-4787.
- ↑ Busker, Tony; Choenni, Sunil; Shoae Bargh, Mortaza (2023년 11월 20일). 〈Stereotypes in ChatGPT: An empirical study〉. 《Proceedings of the 16th International Conference on Theory and Practice of Electronic Governance》. ICEGOV '23. New York, NY, USA: Association for Computing Machinery. 24–32쪽. doi:10.1145/3614321.3614325. ISBN 979-8-4007-0742-1.
- ↑ Kotek, Hadas; Dockum, Rikker; Sun, David (2023년 11월 5일). 〈Gender bias and stereotypes in Large Language Models〉. 《Proceedings of the ACM Collective Intelligence Conference》. CI '23. New York, NY, USA: Association for Computing Machinery. 12–24쪽. arXiv:2308.14921. doi:10.1145/3582269.3615599. ISBN 979-8-4007-0113-9.
- ↑ Wang, Tianlu; Zhao, Jieyu; Yatskar, Mark; Chang, Kai-Wei; Ordonez, Vicente (2019년 10월 11일), 《Balanced Datasets Are Not Enough: Estimating and Mitigating Gender Bias in Deep Image Representations》, arXiv:1811.08489, 2026년 3월 12일에 확인함
- ↑ Albiero, Vítor; S, Krishnapriya K.; Vangara, Kushal; Zhang, Kai; King, Michael C.; Bowyer, Kevin W. (2020년 1월 31일), 《Analysis of Gender Inequality In Face Recognition Accuracy》, arXiv:2002.00065, 2026년 3월 12일에 확인함
- ↑ Hamidi, Foad; Scheuerman, Morgan Klaus; Branham, Stacy M. (2018년 4월 19일). 〈Gender Recognition or Gender Reductionism?: The Social Implications of Embedded Gender Recognition Systems〉. 《Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems》. CHI '18. New York, NY, USA: Association for Computing Machinery. 1–13쪽. doi:10.1145/3173574.3173582. ISBN 978-1-4503-5620-6.
- ↑ Keyes, Os (2018년 11월 1일). “The Misgendering Machines: Trans/HCI Implications of Automatic Gender Recognition” (영어). 《ACM Digital Library》. doi:10.1145/3274357.
- ↑ Cheng, Myra; Durmus, Esin; Jurafsky, Dan (2023년 5월 29일). “Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models” (영어). arXiv:2305.18189v1 [cs.CL].
- ↑ Segev, Elad; Manor, Ilan (2025). “What ChatGPT "thinks" about your country? Sentiments and frames of AI geographies”. 《Policy & Internet》 (Wiley). doi:10.1002/poi3.70013.
- 1 2 Wang, Zixi; Xia, Haodong; Bao, Han Wu Shuang; Jing, Yiming; Gu, Ruolei (October 2025). “Artificial Intelligence Is Stereotypically Linked More with Socially Dominant Groups in Natural Language”. 《Advanced Science (Weinheim, Baden-Wurttemberg, Germany)》 12 (39). doi:10.1002/advs.202508623. ISSN 2198-3844. PMC 12533212
|pmc=값 확인 필요 (도움말). PMID 40719013. - 1 2 Louro, Celeste Rodriguez (2025년 5월 5일). “AI systems are built on English - but not the kind most of the world speaks” (영어). 《The Conversation》. 2026년 4월 11일에 확인함.
- ↑ Pretorius, Lynette; Huynh, Huy-Hoang; Pudyanti, Anak Agung Ayu Redi; Li, Ziqi; Noori, Abdul Qawi; Zhou, Zhiheng (2025). “Empowering international PhD students: Generative AI, Ubuntu, and the decolonisation of academic communication” (영어). 《The Internet and Higher Education》 67. doi:10.1016/j.iheduc.2025.101038.
- ↑ “The 'missed opportunity' with AI's linguistic diversity gap” (영어). 《World Economic Forum》. 2026년 3월 6일에 원본 문서에서 보존된 문서. 2026년 4월 11일에 확인함.
- ↑ Eacersall, Douglas; Pretorius, Lynette; Smirnov, Ivan; Spray, Erika; Illingworth, Sam; Chugh, Ritesh; Strydom, Sonja; Stratton-Maher, Dianne; Simmons, Jonathan; Jennings, Isaac; Roux, Rian; Kamrowski, Ruth; Downie, Abigail; Thong; Howell, Katharine A. (2025). “Navigating ethical challenges in generative AI-enhanced research: The ETHICAL framework for responsible generative AI use” (영어). 《Journal of Applied Learning & Teaching》 8 (2). doi:10.37074/jalt.2025.8.2.9.
- ↑ Feng, Shangbin; Park, Chan Young; Liu, Yuhan; Tsvetkov, Yulia (July 2023). Rogers, Anna; Boyd-Graber, Jordan; Okazaki, Naoaki (편집). “From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models”. 《Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)》 (Toronto, Canada: Association for Computational Linguistics): 11737–11762. arXiv:2305.08283. doi:10.18653/v1/2023.acl-long.656.
- ↑ Zhou, Karen; Tan, Chenhao (December 2023). Bouamor, Houda; Pino, Juan; Bali, Kalika (편집). “Entity-Based Evaluation of Political Bias in Automatic Summarization”. 《Findings of the Association for Computational Linguistics: EMNLP 2023》 (Singapore: Association for Computational Linguistics): 10374–10386. arXiv:2305.02321. doi:10.18653/v1/2023.findings-emnlp.696. 2024년 4월 24일에 원본 문서에서 보존된 문서. 2023년 12월 25일에 확인함.
- ↑ Peters, Uwe. “Algorithmic Political Bias in Artificial Intelligence Systems”. 《Philosophy & Technology》 35.
- 1 2 Messer, Uwe. “How do People React to Political Bias in Generative Artificial Intelligence (AI)?”. 《Computers in Human Behavior: Artificial Humans》 3.
- ↑ Fisher, Jillian; Feng, Shangbin; Aron, Robert; Richardson, Thomas; Choi, Yejin; Fisher, Daniel W.; Pan, Jennifer; Tsvetkov, Yulia; Reinecke, Katharina (2024), 《Biased AI can Influence Political Decision-Making》, arXiv, doi:10.48550/ARXIV.2410.06415, 2026년 4월 12일에 확인함
- ↑ Hammond, George (2023년 12월 27일). “Big Tech is spending more than VC firms on AI startups” (미국 영어). 《Ars Technica》. 2024년 1월 10일에 원본 문서에서 보존된 문서.
- ↑ Wong, Matteo (2023년 10월 24일). “The Future of AI Is GOMA” (영어). 《The Atlantic》. 2024년 1월 5일에 원본 문서에서 보존된 문서.
- ↑ “Big tech and the pursuit of AI dominance”. 《The Economist》. 2023년 3월 26일. 2023년 12월 29일에 원본 문서에서 보존된 문서.
- ↑ Fung, Burny (2023년 12월 19일). “Where the battle to dominate AI may be won” (영어). 《CNN Business》. 2024년 1월 13일에 원본 문서에서 보존된 문서.
- ↑ Metz, Cade (2023년 7월 5일). “In the Age of A.I., Tech's Little Guys Need Big Friends”. 《The New York Times》. 2024년 7월 8일에 원본 문서에서 보존된 문서. 2024년 7월 17일에 확인함.
- 1 2 3 Sigalos, MacKenzie (2026년 1월 1일). “Dust to data centers: The year AI tech giants, and billions in debt, began remaking the American landscape” (영어). 《CNBC》. 2026년 4월 13일에 확인함.
- 1 2 Hutchinson, Hutchinson, Christophe Samuel (2022). “Potential abuses of dominance by big tech through their use of Big Data and AI”. 《Journal of Antitrust Enforcement》 10 (3): 443–468.
- 1 2 “Explained: Generative AI's environmental impact” (영어). 《MIT News》. 2025년 1월 17일. 2025년 10월 3일에 확인함.
- 1 2 “AI energy demand to climb in 2025–26 despite efficiency gains” (미국 영어). 《Bloomberg Professional Services》. 2025년 4월 11일. 2025년 10월 7일에 확인함.
- 1 2 3 Kanungo, Alokya (2023년 7월 18일). “The Real Environmental Impact of AI” (영어). 《Earth.Org》. 2025년 10월 3일에 확인함.
- ↑ Bozkurt et al. "AI’s Thirst, AI’s Heat, AI’s Waste: Exposing the Hidden Environmental Impact of Every Artificial Intelligence Interaction"
- ↑ Bozkurt et al. "AI’s Thirst, AI’s Heat, AI’s Waste: Exposing the Hidden Environmental Impact of Every Artificial Intelligence Interaction"
- ↑ Bozkurt et al. "AI’s Thirst, AI’s Heat, AI’s Waste: Exposing the Hidden Environmental Impact of Every Artificial Intelligence Interaction"
- 1 2 Coleman, Jude. “AI's Climate Impact Goes beyond Its Emissions” (영어). 《Scientific American》. 2025년 10월 3일에 확인함.
- ↑ Open Source AI. 보관됨 2016-03-04 - 웨이백 머신 Bill Hibbard. 2008 proceedings 보관됨 2024-09-25 - 웨이백 머신 of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel, and Stan Franklin.
- ↑ Stewart, Ashley; Melton, Monica. “Hugging Face CEO says he's focused on building a 'sustainable model' for the $4.5 billion open-source-AI startup” (미국 영어). 《Business Insider》. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2024년 4월 7일에 확인함.
- ↑ “The open-source AI boom is built on Big Tech's handouts. How long will it last?” (영어). 《MIT Technology Review》. 2024년 1월 5일에 원본 문서에서 보존된 문서. 2024년 4월 7일에 확인함.
- ↑ Yao, Deborah (2024년 2월 21일). “Google Unveils Open Source Models to Rival Meta, Mistral”. 《AI Business》.
- ↑ 《7001-2021 – IEEE Standard for Transparency of Autonomous Systems》. IEEE. 2022년 3월 4일. 1–54쪽. doi:10.1109/IEEESTD.2022.9726144. ISBN 978-1-5044-8311-7. S2CID 252589405..
- ↑ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (2023년 1월 1일). “Ethical issues in the development of artificial intelligence: recognizing the risks”. 《International Journal of Ethics and Systems》 41: 45–63. doi:10.1108/IJOES-05-2023-0107. ISSN 2514-9369. S2CID 259614124.
- ↑ Thurm, Scott (2018년 7월 13일). “Microsoft Calls For Federal Regulation of Facial Recognition”. 《Wired》. 2019년 5월 9일에 원본 문서에서 보존된 문서. 2019년 1월 10일에 확인함.
- ↑ Piper, Kelsey (2024년 2월 2일). “Should we make our most powerful AI models open source to all?” (영어). 《Vox》. 2024년 4월 7일에 확인함.
- ↑ Vincent, James (2023년 3월 15일). “OpenAI co-founder on company's past approach to openly sharing research: "We were wrong"” (영어). 《The Verge》. 2023년 3월 17일에 원본 문서에서 보존된 문서. 2024년 4월 7일에 확인함.
- ↑ “Stack Overflow Will Charge AI Giants for Training Data”. 《WIRED》. 2023년 4월 28일. 2025년 4월 3일에 확인함.
- ↑ “Open source devs say AI crawlers dominate traffic, forcing blocks on entire countries”. 《Ars Technica》. 2025년 3월 25일. 2025년 4월 3일에 확인함.
- ↑ “AI bots strain Wikimedia as bandwidth surges 50%”. 《Ars Technica》. 2025년 4월 2일. 2025년 4월 3일에 확인함.
- ↑ von Eschenbach, Warren J. (2021년 12월 1일). “Transparency and the Black Box Problem: Why We Do Not Trust AI” (영어). 《Philosophy & Technology》 34 (4): 1607–1622. doi:10.1007/s13347-021-00477-0. ISSN 2210-5441.
- ↑ Lund, Brady; Orhan, Zeynep; Mannuru, Nishith Reddy; Bevara, Ravi Varma Kumar; Porter, Brett; Vinaih, Meka Kasi; Bhaskara, Padmapadanand (2025년 1월 29일). “Standards, frameworks, and legislation for artificial intelligence (AI) transparency” (영어). 《AI and Ethics》 5 (4): 3639–3655. doi:10.1007/s43681-025-00661-4. ISSN 2730-5961.
- ↑ Inside The Mind Of A.I. 보관됨 2021-08-10 - 웨이백 머신 – Cliff Kuang interview
- ↑ “What Is AI Interpretability? | IBM” (영어). 《www.ibm.com》. 2024년 10월 8일. 2025년 7월 3일에 확인함.
- ↑ Li, Fan; Ruijs, Nick; Lu, Yuan (2022년 12월 31일). “Ethics & AI: A Systematic Review on Ethical Concerns and Related Strategies for Designing with AI in Healthcare” (영어). 《AI》 4 (1): 28–53. doi:10.3390/ai4010003. ISSN 2673-2688.
- ↑ Shabankareh, Mohammadjavad; Khamoushi Sahne, Seyed Sina; Nazarian, Alireza; Foroudi, Pantea (2025년 1월 1일). “The impact of AI perceived transparency on trust in AI recommendations in healthcare applications”. 《Asia-Pacific Journal of Business Administration》. ahead-of-print (ahead-of-print). doi:10.1108/APJBA-12-2024-0690. ISSN 1757-4331.
- ↑ Xu, Hanhui; Shuttleworth, Kyle Michael James (2024년 2월 1일). “Medical artificial intelligence and the black box problem: a view based on the ethical principle of "do no harm"”. 《Intelligent Medicine》 4 (1): 52–57. doi:10.1016/j.imed.2023.08.001. ISSN 2667-1026.
- ↑ Howard, Ayanna (2019년 7월 29일). “The Regulation of AI – Should Organizations Be Worried? | Ayanna Howard”. 《MIT Sloan Management Review》. 2019년 8월 14일에 원본 문서에서 보존된 문서. 2019년 8월 14일에 확인함.
- ↑ “Trust in artificial intelligence – A five country study” (PDF). 《KPMG》. March 2021. 2023년 10월 1일에 원본 문서 (PDF)에서 보존된 문서. 2023년 10월 6일에 확인함.
- ↑ Bastin, Roland; Wantz, Georges (June 2017). “The General Data Protection Regulation Cross-industry innovation” (PDF). 《Inside magazine》. Deloitte. 2019년 1월 10일에 원본 문서 (PDF)에서 보존된 문서. 2019년 1월 10일에 확인함.
- ↑ “UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges'”. 《UN News》. 2017년 6월 7일. 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ “Artificial intelligence – Organisation for Economic Co-operation and Development”. 《www.oecd.org》. 2019년 7월 22일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ Anonymous (2018년 6월 14일). “The European AI Alliance”. 《Digital Single Market – European Commission》. 2019년 8월 1일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ European Commission High-Level Expert Group on AI (2019년 6월 26일). “Policy and investment recommendations for trustworthy Artificial Intelligence” (영어). 《Shaping Europe's digital future – European Commission》. 2020년 2월 26일에 원본 문서에서 보존된 문서. 2020년 3월 16일에 확인함.
- ↑ Fukuda-Parr, Sakiko; Gibbons, Elizabeth (July 2021). “Emerging Consensus on 'Ethical AI': Human Rights Critique of Stakeholder Guidelines” (영어). 《Global Policy》 12 (S6): 32–44. doi:10.1111/1758-5899.12965. ISSN 1758-5880.
- ↑ “EU Tech Policy Brief: July 2019 Recap”. 《Center for Democracy & Technology》. 2019년 8월 2일. 2019년 8월 9일에 원본 문서에서 보존된 문서. 2019년 8월 9일에 확인함.
- ↑ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (2022년 5월 24일). “AI-deploying organizations are key to addressing 'perfect storm' of AI risks” (영어). 《AI and Ethics》 3 (1): 145–153. doi:10.1007/s43681-022-00163-7. ISSN 2730-5961. PMC 9127285. PMID 35634256.
- 1 2 3 “EU AI Act: first regulation on artificial intelligence” (영어). 《European Parliament》. 2023년 8월 6일. 2025년 7월 15일에 확인함.
- 1 2 “AI Act enters into force” (영어). 《European Commission》. 2024년 8월 1일. 2025년 7월 15일에 확인함.
- ↑ Challen, Robert; Denny, Joshua; Pitt, Martin; Gompels, Luke; Edwards, Tom; Tsaneva-Atanasova, Krasimira (March 2019). “Artificial intelligence, bias and clinical safety” (영어). 《BMJ Quality & Safety》 28 (3): 231–237. doi:10.1136/bmqs-2018-008370. ISSN 2044-5415. PMC 6560460. PMID 30636200.
- 1 2 토마스 메칭거 (February 2021). “Artificial Suffering: An Argument for a Global Moratorim on Synthetic Phenomenology”. 《Journal of Artificial Intelligence and Consciousness》 8: 43–66. doi:10.1142/S270507852150003X. S2CID 233176465.
- 1 2 Agarwal A, Edelman S (2020). “Functionally effective conscious AI without suffering”. 《Journal of Artificial Intelligence and Consciousness》 7: 39–50. arXiv:2002.05652. doi:10.1142/S2705078520300030. S2CID 211096533.
- ↑ Roose, Kevin (2025년 4월 24일). “If A.I. Systems Become Conscious, Should They Have Rights?” (미국 영어). 《The New York Times》. ISSN 0362-4331. 2025년 4월 24일에 확인함.
- ↑ Birch, Jonathan (2017년 1월 1일). “Animal sentience and the precautionary principle”. 《Animal Sentience》 2 (16). doi:10.51291/2377-7478.1200. ISSN 2377-7478. 2024년 8월 11일에 원본 문서에서 보존된 문서. 2024년 7월 8일에 확인함.
- ↑ Macrae, Carl (September 2022). “Learning from the Failure of Autonomous and Intelligent Systems: Accidents, Safety, and Sociotechnical Sources of Risk” (영어). 《Risk Analysis》 42 (9): 1999–2025. Bibcode:2022RiskA..42.1999M. doi:10.1111/risa.13850. ISSN 0272-4332. PMID 34814229.
- ↑ Chalmers, David (March 2023). “Could a Large Language Model be Conscious?”. arXiv:2303.07103v1 [Science Computer Science].
- ↑ Edwards, Benj (2024년 11월 11일). “Anthropic hires its first "AI welfare" researcher” (영어). 《Ars Technica》. 2025년 4월 24일에 확인함.
- ↑ Wiggers, Kyle (2025년 4월 24일). “Anthropic is launching a new program to study AI 'model welfare'” (미국 영어). 《TechCrunch》. 2025년 4월 27일에 확인함.
- ↑ Shulman, Carl; Bostrom, Nick (August 2021). “Sharing the World with Digital Minds” (PDF). 《Rethinking Moral Status》: 306–326. doi:10.1093/oso/9780192894076.003.0018. ISBN 978-0-19-289407-6.
- ↑ Fisher, Richard (2020년 11월 13일). “The intelligent monster that you should let eat you” (영어). BBC News. 2021년 2월 12일에 확인함.
- 1 2
- Weizenbaum, Joseph (1976). 《Computer Power and Human Reason》. San Francisco: W.H. Freeman & Company. ISBN 978-0-7167-0464-5.
- McCorduck, Pamela (2004), 《Machines Who Think》 2판, Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1, pp. 132–144
- 1 2 조셉 웨이젠바움, quoted in McCorduck 2004, 356, 374–376쪽
- ↑ Kaplan, Andreas; Haenlein, Michael (January 2019). “Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence”. 《Business Horizons》 62 (1): 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
- 1 2 Hibbard, Bill (2015년 11월 17일). “Ethical Artificial Intelligence”. arXiv:1411.1373 [cs.AI].
- ↑ Davies, Alex (2016년 2월 29일). “Google's Self-Driving Car Caused Its First Crash”. 《Wired》. 2019년 7월 7일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ Levin, Sam; Wong, Julia Carrie (2018년 3월 19일). “Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian”. 《The Guardian》. 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ “Who is responsible when a self-driving car has an accident?”. 《Futurism》. 2018년 1월 30일. 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ “Autonomous Car Crashes: Who – or What – Is to Blame?”. 《Knowledge@Wharton》. Law and Public Policy (Radio Business North America Podcasts). 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ Delbridge, Emily. “Driverless Cars Gone Wild”. 《The Balance》. 2019년 5월 29일에 원본 문서에서 보존된 문서. 2019년 5월 29일에 확인함.
- ↑ Stilgoe, Jack (2020), “Who Killed Elaine Herzberg?” (영어), 《Who's Driving Innovation?》 (Cham: Springer International Publishing), 1–6쪽, doi:10.1007/978-3-030-32320-2_1, ISBN 978-3-030-32319-6, S2CID 214359377, 2021년 3월 18일에 원본 문서에서 보존된 문서, 2020년 11월 11일에 확인함
- ↑ Maxmen, Amy (October 2018). “Self-driving car dilemmas reveal that moral choices are not universal”. 《Nature》 562 (7728): 469–470. Bibcode:2018Natur.562..469M. doi:10.1038/d41586-018-07135-0. PMID 30356197.
- ↑ “Regulations for driverless cars”. 《GOV.UK》. 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ “Automated Driving: Legislative and Regulatory Action – CyberWiki”. 《cyberlaw.stanford.edu》. 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ “Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation”. 《www.ncsl.org》. 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ Etzioni, Amitai; Etzioni, Oren (2017년 12월 1일). “Incorporating Ethics into Artificial Intelligence” (영어). 《The Journal of Ethics》 21 (4): 403–418. doi:10.1007/s10892-017-9252-2. ISSN 1572-8609. S2CID 254644745.
- ↑ Call for debate on killer robots 보관됨 2009-08-07 - 웨이백 머신, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
- 1 2 Science New Navy-funded Report Warns of War Robots Going "Terminator" 보관됨 2009-07-28 - 웨이백 머신, by Jason Mick (Blog), dailytech.com, February 17, 2009.
- 1 2 Navy report warns of robot uprising, suggests a strong moral compass 보관됨 2011-06-04 - 웨이백 머신, by Joseph L. Flatley engadget.com, Feb 18th 2009.
- ↑ AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study 보관됨 2009-08-28 - 웨이백 머신, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
- ↑ United States. Defense Innovation Board. 《AI principles: recommendations on the ethical use of artificial intelligence by the Department of Defense》. OCLC 1126650738.
- ↑ Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (March 2020). “The future of war: could lethal autonomous weapons make conflict more ethical?” (영어). 《AI & Society》 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. hdl:2318/1699364. ISSN 0951-5666. S2CID 59606353. 2021년 1월 5일에 원본 문서에서 보존된 문서. 2020년 11월 11일에 확인함.
- ↑ Jamison, Miles (2024년 12월 20일). “DARPA Launches Ethics Program for Autonomous Systems” (미국 영어). 《executivegov.com》. 2025년 1월 2일에 확인함.
- ↑ “DARPA's ASIMOV seeks to develop Ethical Standards for Autonomous Systems”. 《Space Daily》. 2024년 12월 20일. 2025년 1월 2일에 확인함.
- ↑ Hellström, Thomas (June 2013). “On the moral responsibility of military robots”. 《Ethics and Information Technology》 15 (2): 99–107. doi:10.1007/s10676-012-9301-2. S2CID 15205810. ProQuest 1372020233.
|id=에 templatestyles stripmarker가 있음(위치 1) (도움말) - ↑ Mitra, Ambarish (2018년 4월 5일). “We can train AI to identify good and evil, and then use it to teach us morality”. 《Quartz》. 2019년 7월 26일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- ↑ Dominguez, Gabriel (2022년 8월 23일). “South Korea developing new stealthy drones to support combat aircraft”. 《재팬 타임스》. 2023년 6월 14일에 확인함.
- ↑ “AI Principles”. 《Future of Life Institute》. 2017년 8월 11일. 2017년 12월 11일에 원본 문서에서 보존된 문서. 2019년 7월 26일에 확인함.
- 1 2 Zach Musgrave and Bryan W. Roberts (2015년 8월 14일). “Why Artificial Intelligence Can Too Easily Be Weaponized – The Atlantic”. 《The Atlantic》. 2017년 4월 11일에 원본 문서에서 보존된 문서. 2017년 3월 6일에 확인함.
- ↑ Cat Zakrzewski (2015년 7월 27일). “Musk, Hawking Warn of Artificial Intelligence Weapons”. 《WSJ》. 2015년 7월 28일에 원본 문서에서 보존된 문서. 2017년 8월 4일에 확인함.
- ↑ “Potential Risks from Advanced Artificial Intelligence” (미국 영어). 《Open Philanthropy》. 2015년 8월 11일. 2024년 4월 7일에 확인함.
- 1 2 Bachulska, Alicja; Leonard, Mark; Oertel, Janka (2024년 7월 2일). 《The Idea of China: Chinese Thinkers on Power, Progress, and People》. Berlin, Germany: 유럽외교협회. ISBN 978-1-916682-42-9. 2024년 7월 17일에 원본 문서 (EPUB)에서 보존된 문서. 2024년 7월 22일에 확인함.
- ↑ Brandon Vigliarolo. “International military AI summit ends with 60-state pledge” (영어). 《www.theregister.com》. 2023년 2월 17일에 확인함.
- 1 2 Markoff, John (2009년 7월 25일). “Scientists Worry Machines May Outsmart Man”. 《The New York Times》. 2017년 2월 25일에 원본 문서에서 보존된 문서. 2017년 2월 24일에 확인함.
- ↑ Muehlhauser, Luke, and Louie Helm. 2012. "Intelligence Explosion and Machine Ethics" 보관됨 2015-05-07 - 웨이백 머신. In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
- ↑ Bostrom, Nick. 2003. "Ethical Issues in Advanced Artificial Intelligence" 보관됨 2018-10-08 - 웨이백 머신. In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12–17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
- ↑ Bostrom, Nick (2017). 《Superintelligence: paths, dangers, strategies》. Oxford, United Kingdom: Oxford University Press. ISBN 978-0-19-967811-2.
- ↑ Umbrello, Steven; Baum, Seth D. (2018년 6월 1일). “Evaluating future nanotechnology: The net societal impacts of atomically precise manufacturing” (영어). 《Futures》 100: 63–73. doi:10.1016/j.futures.2018.04.007. hdl:2318/1685533. ISSN 0016-3287. S2CID 158503813. 2019년 5월 9일에 원본 문서에서 보존된 문서. 2020년 11월 29일에 확인함.
- ↑ Yudkowsky, Eliezer. 2011. "Complex Value Systems in Friendly AI" 보관됨 2015-09-29 - 웨이백 머신. In Schmidhuber, Thórisson, and Looks 2011, 388–393.
- ↑ Russell, Stuart (2019년 10월 8일). 《Human Compatible: Artificial Intelligence and the Problem of Control》. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
- ↑ Yampolskiy, Roman V. (2020년 3월 1일). “Unpredictability of AI: On the Impossibility of Accurately Predicting All Actions of a Smarter Agent”. 《Journal of Artificial Intelligence and Consciousness》 07 (1): 109–118. doi:10.1142/S2705078520500034. ISSN 2705-0785. S2CID 218916769. 2021년 3월 18일에 원본 문서에서 보존된 문서. 2020년 11월 29일에 확인함.
- ↑ Wallach, Wendell; Vallor, Shannon (2020년 9월 17일), “Moral Machines: From Value Alignment to Embodied Virtue” (영어), 《Ethics of Artificial Intelligence》 (Oxford University Press), 383–412쪽, doi:10.1093/oso/9780190905033.003.0014, ISBN 978-0-19-090503-3, 2020년 12월 8일에 원본 문서에서 보존된 문서, 2020년 11월 29일에 확인함
- ↑ Umbrello, Steven (2019). “Beneficial Artificial Intelligence Coordination by Means of a Value Sensitive Design Approach” (영어). 《Big Data and Cognitive Computing》 3 (1): 5. doi:10.3390/bdcc3010005. hdl:2318/1685727.
- ↑ Floridi, Luciano; Cowls, Josh; King, Thomas C.; Taddeo, Mariarosaria (2020). “How to Design AI for Social Good: Seven Essential Factors” (영어). 《Science and Engineering Ethics》 26 (3): 1771–1796. doi:10.1007/s11948-020-00213-5. ISSN 1353-3452. PMC 7286860. PMID 32246245.
- ↑ “Llama Guard: LLM-based Input-Output Safeguard for Human-AI Conversations”. 《Meta.com》. 2024년 12월 6일에 확인함.
- 1 2 Šekrst, Kristina; McHugh, Jeremy; Cefalu, Jonathan Rodriguez (2024). “AI Ethics by Design: Implementing Customizable Guardrails for Responsible AI Development”. arXiv:2411.14442 [cs.CY].
- ↑ “Nvidia NeMo Guardrails”. 《Nvidia》. 2024년 12월 6일에 확인함.
- ↑ Inan, Hakan; Upasani, Kartikeya; Chi, Jianfeng; Rungta, Rashi; Iyer, Krithika; Mao, Yuning; Tontchev, Michael; Hu, Qing; Fuller, Brian; Testuggine, Davide; Khabsa, Madian (2023). “Llama Guard: LLM-based Input-Output Safeguard for Human-AI Conversations”. arXiv:2312.06674 [cs.CL].
- ↑ Dong, Yi; Mu, Ronghui; Jin, Gaojie; Qi, Yi; Hu, Jinwei; Zhao, Xingyu; Meng, Jie; Ruan, Wenjie; Huang, Xiaowei (2024). “Building Guardrails for Large Language Models”. arXiv:2402.01822 [cs].
- ↑ Evans, Woody (2015). “Posthuman Rights: Dimensions of Transhuman Worlds”. 《Teknokultura》 12 (2): 373–384. doi:10.5209/rev_TK.2015.v12.n2.49072.
- ↑ Fiegerman, Seth (2016년 9월 28일). “Facebook, Google, Amazon create group to ease AI concerns”. 《CNNMoney》. 2020년 9월 17일에 원본 문서에서 보존된 문서. 2020년 8월 18일에 확인함.
- ↑ Slota, Stephen C.; Fleischmann, Kenneth R.; Greenberg, Sherri; Verma, Nitin; Cummings, Brenna; Li, Lan; Shenefiel, Chris (2023). “Locating the work of artificial intelligence ethics” (영어). 《Journal of the Association for Information Science and Technology》 74 (3): 311–322. doi:10.1002/asi.24638. ISSN 2330-1635. S2CID 247342066. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2023년 7월 21일에 확인함.
- ↑ “Ethics guidelines for trustworthy AI” (영어). 《Shaping Europe's digital future – European Commission》. European Commission. 2019년 4월 8일. 2020년 2월 20일에 원본 문서에서 보존된 문서. 2020년 2월 20일에 확인함.
- ↑ “White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future”. 2020년 2월 19일. 2021년 3월 6일에 원본 문서에서 보존된 문서. 2021년 3월 18일에 확인함.
- ↑ “Implementation Timeline | EU Artificial Intelligence Act” (미국 영어). 2025년 10월 2일에 확인함.
- ↑ “OECD AI Policy Observatory”. 2021년 3월 8일에 원본 문서에서 보존된 문서. 2021년 3월 18일에 확인함.
- ↑ 《Recommendation on the Ethics of Artificial Intelligence》. UNESCO. 2021.
- ↑ “UNESCO member states adopt first global agreement on AI ethics” (영국 영어). 《Helsinki Times》. 2021년 11월 26일. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2023년 4월 26일에 확인함.
- ↑ “The Obama Administration's Roadmap for AI Policy”. 《Harvard Business Review》. 2016년 12월 21일. ISSN 0017-8012. 2021년 1월 22일에 원본 문서에서 보존된 문서. 2021년 3월 16일에 확인함.
- ↑ “Accelerating America's Leadership in Artificial Intelligence – The White House”. 《trumpwhitehouse.archives.gov》. 2021년 2월 25일에 원본 문서에서 보존된 문서. 2021년 3월 16일에 확인함.
- ↑ “Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications"”. 《Federal Register》. 2020년 1월 13일. 2020년 11월 25일에 원본 문서에서 보존된 문서. 2020년 11월 28일에 확인함.
- ↑ Sen. Thune, John (2024년 12월 18일). “Text – S.3312 – 118th Congress (2023–2024): Artificial Intelligence Research, Innovation, and Accountability Act of 2024”. 《www.congress.gov》. 2025년 5월 25일에 확인함.
- ↑ “CCC Offers Draft 20-Year AI Roadmap; Seeks Comments”. 《HPCwire》. 2019년 5월 14일. 2021년 3월 18일에 원본 문서에서 보존된 문서. 2019년 7월 22일에 확인함.
- ↑ “Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog”. 2019년 5월 13일. 2019년 5월 14일에 원본 문서에서 보존된 문서. 2019년 7월 22일에 확인함.
- ↑ (러시아어) Интеллектуальные правила 보관됨 2021-12-30 - 웨이백 머신 — 콤메르산트, 25.11.2021
- ↑ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (2018년 5월 3일). “When Will AI Exceed Human Performance? Evidence from AI Experts”. arXiv:1705.08807 [cs.AI].
- ↑ “China wants to shape the global future of artificial intelligence” (영어). 《MIT Technology Review》. 2020년 11월 20일에 원본 문서에서 보존된 문서. 2020년 11월 29일에 확인함.
- ↑ Adam, David (2024년 4월 26일). “Future of Humanity Institute shuts: what's next for 'deep future' research?” (영어). 《Nature》 629 (8010): 16–17. Bibcode:2024Natur.629...16A. doi:10.1038/d41586-024-01229-8. PMID 38671273.
- ↑ Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert; Pagallo, Ugo; Rossi, Francesca; Schafer, Burkhard (2018년 12월 1일). “AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations” (영어). 《Minds and Machines》 28 (4): 689–707. doi:10.1007/s11023-018-9482-5. ISSN 1572-8641. PMC 6404626. PMID 30930541.
- ↑ “AI Governance” (영어). 《Oxford Martin School》. 2025년 2월 19일에 확인함.
- ↑ “Joanna J. Bryson”. 《WIRED》. 2023년 3월 15일에 원본 문서에서 보존된 문서. 2023년 1월 13일에 확인함.
- ↑ “New Artificial Intelligence Research Institute Launches” (미국 영어). 2017년 11월 20일. 2020년 9월 18일에 원본 문서에서 보존된 문서. 2021년 2월 21일에 확인함.
- ↑ James J. Hughes; LaGrandeur, Kevin 편집 (2017년 3월 15일). 《Surviving the machine age: intelligent technology and the transformation of human work》. Cham, Switzerland: Palgrave Macmillan Cham. ISBN 978-3-319-51165-8. OCLC 976407024.
- ↑ Danaher, John (2019). 《Automation and utopia: human flourishing in a world without work》. Cambridge, Massachusetts: Harvard University Press. ISBN 978-0-674-24220-3. OCLC 1114334813.
- ↑ “TUM Institute for Ethics in Artificial Intelligence officially opened” (영어). 《www.tum.de》. 2020년 12월 10일에 원본 문서에서 보존된 문서. 2020년 11월 29일에 확인함.
- ↑ Communications, Paul Karoff SEAS (2019년 1월 25일). “Harvard works to embed ethics in computer science curriculum” (미국 영어). 《Harvard Gazette》. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2023년 4월 6일에 확인함.
- ↑ Lee, Jennifer (2020년 2월 8일). “When Bias Is Coded Into Our Technology” (영어). 《NPR》. 2021년 12월 22일에 확인함.
- ↑ “How one conference embraced diversity” (영어). 《Nature》 564 (7735): 161–162. 2018년 12월 12일. doi:10.1038/d41586-018-07718-x. PMID 31123357. S2CID 54481549.
- ↑ Roose, Kevin (2020년 12월 30일). “The 2020 Good Tech Awards” (미국 영어). 《The New York Times》. ISSN 0362-4331. 2021년 12월 21일에 확인함.
- ↑ Lodge, Paul (2014). “Leibniz's Mill Argument Against Mechanical Materialism Revisited”. 《Ergo: An Open Access Journal of Philosophy》 1 (20201214). doi:10.3998/ergo.12405314.0001.003. hdl:2027/spo.12405314.0001.003. ISSN 2330-4014.
- ↑ Bringsjord, Selmer; Govindarajulu, Naveen Sundar (2020), 〈Artificial Intelligence〉 Summer 2020판, Zalta, Edward N.; Nodelman, Uri (편집), 《The Stanford Encyclopedia of Philosophy》, Metaphysics Research Lab, Stanford University, 2022년 3월 8일에 원본 문서에서 보존된 문서, 2023년 12월 8일에 확인함
- ↑ Kulesz, O. (2018). "Culture, Platforms and Machines". UNESCO, Paris.
- ↑ Jr, Henry C. Lucas (1999년 4월 29일). 《Information Technology and the Productivity Paradox: Assessing the Value of Investing in IT》 (영어). Oxford University Press. ISBN 978-0-19-802838-3. 2024년 9월 25일에 원본 문서에서 보존된 문서. 2024년 2월 21일에 확인함.
- ↑ Asimov, Isaac (2008). 《I, Robot》. New York: Bantam. ISBN 978-0-553-38256-3.
- ↑ Bryson, Joanna; Diamantis, Mihailis; Grant, Thomas (September 2017). “Of, for, and by the people: the legal lacuna of synthetic persons”. 《Artificial Intelligence and Law》 25 (3): 273–291. doi:10.1007/s10506-017-9214-9.
- ↑ “Principles of robotics”. UK's EPSRC. September 2010. 2018년 4월 1일에 원본 문서에서 보존된 문서. 2019년 1월 10일에 확인함.
- ↑ Yudkowsky, Eliezer (July 2004). “Why We Need Friendly AI”. 《3 laws unsafe》. 2012년 5월 24일에 원본 문서에서 보존된 문서.
- ↑ Aleksander, Igor (March 2017). “Partners of Humans: A Realistic Assessment of the Role of Robots in the Foreseeable Future” (영어). 《Journal of Information Technology》 32 (1): 1–9. doi:10.1057/s41265-016-0032-4. ISSN 0268-3962. S2CID 5288506. 2024년 2월 21일에 원본 문서에서 보존된 문서. 2024년 2월 21일에 확인함.
- ↑ Evolving Robots Learn To Lie To Each Other 보관됨 2009-08-28 - 웨이백 머신, Popular Science, August 18, 2009
- ↑ Bassett, Caroline; Steinmueller, Ed; Voss, Georgina. “Better Made Up: The Mutual Influence of Science Fiction and Innovation”. Nesta. 2024년 5월 3일에 원본 문서에서 보존된 문서. 2024년 5월 3일에 확인함.
- ↑ Velasco, Guille (2020년 5월 4일). “Science-Fiction: A Mirror for the Future of Humankind” (미국 영어). 《IDEES》. 2021년 4월 22일에 원본 문서에서 보존된 문서. 2023년 12월 8일에 확인함.
- ↑ “Love, Death & Robots season 2, episode 1 recap – "Automated Customer Service"” (영국 영어). 《Ready Steady Cut》. 2021년 5월 14일. 2021년 12월 21일에 원본 문서에서 보존된 문서. 2021년 12월 21일에 확인함.
- ↑ Cave, Stephen; Dihal, Kanta; Dillon, Sarah 편집 (2020년 2월 14일). 《AI narratives: a history of imaginative thinking about intelligent machines》 Fir판. Oxford: Oxford University Press. ISBN 978-0-19-258604-9. OCLC 1143647559.
- ↑ Cerqui, Daniela; Warwick, Kevin (2008), “Re-Designing Humankind: The Rise of Cyborgs, a Desirable Goal?” (영어), 《Philosophy and Design》 (Dordrecht: Springer Netherlands), 185–195쪽, doi:10.1007/978-1-4020-6591-0_14, ISBN 978-1-4020-6590-3, 2021년 3월 18일에 원본 문서에서 보존된 문서, 2020년 11월 11일에 확인함
외부 링크
[편집]- Ethics of Artificial Intelligence at the Internet Encyclopedia of Philosophy
- Ethics of Artificial Intelligence and Robotics at the Stanford Encyclopedia of Philosophy
- Russell, S.; Hauert, S.; Altman, R.; Veloso, M. (May 2015). “Robotics: Ethics of artificial intelligence”. 《Nature》 521 (7553): 415–418. Bibcode:2015Natur.521..415.. doi:10.1038/521415a. PMID 26017428. S2CID 4452826.
- BBC News: Games to take on a life of their own
- Who's Afraid of Robots? 보관됨 2018-03-22 - 웨이백 머신, an article on humanity's fear of artificial intelligence.
- A short history of computer ethics
- AI Ethics Guidelines Global Inventory by Algorithmwatch
- Hagendorff, Thilo (March 2020). “The Ethics of AI Ethics: An Evaluation of Guidelines”. 《Minds and Machines》 30 (1): 99–120. arXiv:1903.03425. doi:10.1007/s11023-020-09517-8. S2CID 72940833.
- Sheludko, M. (December, 2023). Ethical Aspects of Artificial Intelligence: Challenges and Imperatives. Software Development Blog.
- Eisikovits, Nir. “AI Is an Existential Threat--Just Not the Way You Think” (영어). 《Scientific American》. 2024년 3월 4일에 확인함.
