인공 일반 지능(人工一般智能, 영어:artificial general intelligence, AGI)은 사실상 모든 인지 작업에서 인간의 능력과 같거나 능가할 수 있는 인공지능의 한 유형이다.[1][2]
AGI를 넘어선 초지능 (ASI)은 모든 영역에서 최고의 인간 능력을 훨씬 능가할 것이다.[3] 역량이 잘 정의된 작업에 국한되는 약한 인공 지능 (ANI)과 달리, AGI 시스템은 지식을 일반화하고, 도메인 간에 기술을 전이하며, 작업별 재프로그래밍 없이 새로운 문제를 해결할 수 있다. 이 개념은 원칙적으로 시스템이 자율 에이전트여야 한다고 요구하지 않는다. 고도로 유능한 대형 언어 모델과 같은 정적 모델이나 구체화된 로봇 모두 인간 수준의 폭넓은 지식과 숙련도를 달성하는 한 정의를 만족할 수 있다.[4]
AGI 생성은 오픈AI,[5]구글,[6]xAI,[7]메타와 같은 AI 기술 기업들의 공통 목표이다.[8] 2020년 설문조사에 따르면 37개국에서 72개의 활성 AGI 연구 개발 프로젝트가 진행 중인 것으로 확인되었다.[9]
AGI가 실존적 위험을 나타내는가에 대한 논쟁이 있다.[12][13][14] 일부 AI 전문가와 업계 관계자들은 AGI로 인한 인류 멸종의 위험을 완화하는 것이 세계적인 우선순위가 되어야 한다고 밝혔다. 다른 이들은 AGI의 발전이 그러한 위험을 제기하기에는 너무 먼 단계에 있다고 생각한다.[15][16][17]
AGI는 강한 AI,[18][19] 완전 AI,[20] 인간 수준 AI,[21] 인간 수준 지능형 AI, 또는 일반 지능 행동으로도 알려져 있다.[22]
일부 학술 자료에서는 "강한 AI"라는 용어를 감각성이나 의식 (심리철학)을 경험할 컴퓨터 프로그램에 한정한다.[a] 대조적으로, 약한 인공 지능 (또는 좁은 AI)은 특정 문제를 해결할 수 있지만 일반적인 인지 능력이 부족하다.[23][19] 일부 학술 자료에서는 "약한 AI"를 의식을 경험하지 않거나 인간과 같은 의미로 마음을 가지고 있지 않은 모든 프로그램을 더 광범위하게 지칭하는 데 사용한다.[a]
관련 개념으로는 초지능 및 변혁적 AI가 있다. 초지능 (ASI)은 인간보다 훨씬 더 일반적으로 지능적인 가상의 AGI 유형이며,[24] 변혁적 AI의 개념은 AI가 농업 혁명이나 산업 혁명과 유사하게 사회에 큰 영향을 미치는 것과 관련이 있다.[25]
AGI 분류 프레임워크는 2023년 구글 딥마인드 연구원들에 의해 제안되었다. 이들은 AGI의 5가지 성능 수준을 정의한다: 초기, 유능, 전문가, 거장, 초인. 예를 들어, 유능한 AGI는 광범위한 비물리적 작업에서 숙련된 성인의 50%를 능가하는 AI로 정의되며, 초인 AGI (즉, 초지능)는 유사하게 정의되지만 100%의 임계값을 갖는다. 이들은 챗GPT 또는 LLaMA 2와 같은 대형 언어 모델을 초기 AGI (미숙한 인간과 비교 가능)의 인스턴스로 간주한다.[26] AGI의 자율성 및 관련 위험에 관해서는 도구 (인간이 전적으로 통제), 컨설턴트, 협력자, 전문가, 에이전트 (완전 자율)의 다섯 가지 수준을 정의한다.[27]
튜링 검사는 지능의 일부 증거를 제공할 수 있지만, 비인간 지능적 행동에 불이익을 주며 인공적인 어리석음을 장려할 수 있다.[36]앨런 튜링이 1950년 논문 "Computing Machinery and Intelligence"에서 제안한 이 테스트는 인간 심사위원이 인간과 인간과 유사한 반응을 생성하도록 설계된 기계와 자연어 대화를 나누는 것이다. 기계가 상당한 비율로 자신이 인간이라고 심사위원을 설득할 수 있다면 테스트를 통과한다. 튜링은 이를 기계 지능의 실용적인 측정으로 제안했으며, 기계의 내부 작동보다는 인간과 유사한 반응을 생성하는 능력에 중점을 두었다.[37]
튜링은 이 테스트를 다음과 같이 설명했다.
이 테스트의 핵심은 기계가 질문에 답하며 사람인 척해야 하고, 그 가장이 합리적으로 설득력 있을 때만 합격할 수 있다는 것이다. 기계에 대한 전문가가 아닌 배심원 중 상당수가 그 가장에 속아 넘어가야 한다.[38]
2014년, 13세 우크라이나 소년을 모방하도록 설계된 유진 구스트만이라는 챗봇이 심사위원의 33%를 인간으로 확신시켜 튜링 테스트 이벤트를 통과했다고 보도되었다. 그러나 이 주장은 AI 연구 커뮤니티로부터 테스트의 구현과 AGI와의 관련성에 대한 상당한 회의론에 직면했다.[39][40]
2023년에는 "AI가 튜링 테스트 통과에 그 어느 때보다 가까워졌다"고 주장되었지만, 기사 저자들은 모방 (테스트 통과에 가까워지고 있는 대형 언어 모델이 기반으로 하는)이 "지능"과 동의어가 아님을 다시 강조했다. 더욱이, AI 지능과 인간 지능이 다를 수 있으므로, "튜링 테스트를 통과하는 것은 시스템이 지능적이라는 좋은 증거이지만, 통과하지 못하는 것이 시스템이 지능적이지 않다는 좋은 증거는 아니다"라고 말했다.[41]
2024년 연구에서는 GPT-4가 튜링 테스트의 무작위 통제 버전에서 54%의 시간 동안 인간으로 식별되었다고 제안했다. 이는 ELIZA와 같은 오래된 챗봇을 능가하지만 실제 인간 (67%)에는 여전히 미치지 못하는 수준이다.[42]
2025년, 카메라론 R. 존스와 벤자민 K. 버겐이 사전 등록한 3자 튜링 테스트 연구에 따르면 GPT-4.5가 5분 텍스트 대화에서 73%의 시간 동안 인간으로 판단되었는데, 이는 실제 조력자들의 인간성 비율인 67%를 능가하며, 연구자들의 테스트 통과 기준을 충족했다.[43][44]
문제는 비공식적으로 "AI-완전" 또는 "AI-어려움"이라고 불리는데, 이는 특정 목적의 알고리즘으로는 해결할 수 없으며 AGI가 필요하다고 여겨지기 때문이다.[54]
많은 문제들이 해결을 위해 일반 지능이 필요하다고 추정되어 왔다. 예를 들어 컴퓨터 비전, 자연어 이해, 그리고 실제 세계 문제를 해결하는 동안 예상치 못한 상황에 대처하는 것 등이 있다.[55]번역과 같은 특정 작업조차도 기계가 두 언어로 읽고 쓸 수 있고, 저자의 논리 (추론)를 따르며, 문맥 (지식)을 이해하고, 저자의 원래 의도 (사회 지능)를 충실히 재현해야 한다. 인간 수준의 기계 성능에 도달하려면 이러한 모든 문제들을 동시에 해결해야 한다.
그러나 이러한 작업 중 상당수는 이제 현대 대형 언어 모델에 의해 수행될 수 있다. 스탠퍼드 대학교의 2024년 AI 지수(AI index)에 따르면, AI는 독해 및 시각적 추론을 위한 많은 벤치마크에서 인간 수준의 성능에 도달했다.[56]
현대 AI 연구는 1950년대 중반에 시작되었다.[57] 1세대 AI 연구자들은 인공 일반 지능이 가능하며 단 몇 십 년 안에 현실화될 것이라고 확신했다.[58] AI 선구자 허버트 사이먼은 1965년에 다음과 같이 썼다. "기계는 20년 안에 인간이 할 수 있는 어떤 작업이든 할 수 있을 것이다."[59]
그들의 예측은 스탠리 큐브릭과 아서 C. 클라크의 가상 캐릭터 HAL 9000에 영감을 주었는데, 이는 AI 연구자들이 2001년까지 만들 수 있다고 믿었던 것을 구현했다. AI 선구자 마빈 민스키는 당시의 합의된 예측에 따라 HAL 9000을 가능한 한 현실적으로 만들려는 프로젝트의 컨설턴트였다.[60] 그는 1967년에 "한 세대 안에... '인공지능'을 만드는 문제가 실질적으로 해결될 것"이라고 말했다.[61]
그러나 1970년대 초반, 연구자들이 프로젝트의 난이도를 크게 과소평가했다는 사실이 명백해졌다. 자금 지원 기관들은 AGI에 회의적인 시각을 가지게 되었고, 연구자들에게 유용한 "응용 AI"를 생산하라는 압력을 가했다.[b] 1980년대 초 일본의 5세대 컴퓨터 프로젝트는 AGI에 대한 관심을 다시 불러일으켰고, "자연스러운 대화"와 같은 AGI 목표를 포함한 10년 일정을 제시했다.[65] 이에 대한 대응과 전문가 시스템의 성공으로 산업계와 정부 모두 이 분야에 자금을 쏟아부었다.[63][66] 그러나 1980년대 후반 AI에 대한 신뢰는 대폭 하락했고, 5세대 컴퓨터 프로젝트의 목표는 결코 달성되지 못했다.[67] 20년 만에 두 번째로 AGI의 임박한 달성을 예측했던 AI 연구자들은 틀린 것으로 밝혀졌다. 1990년대에 이르러 AI 연구자들은 헛된 약속을 하는 것으로 명성을 얻었다. 그들은 예측을 전혀 하지 않으려 했고[c] "인간 수준" 인공지능에 대한 언급을 피했는데, 이는 "황당한 몽상가"로 낙인찍힐 것을 두려워했기 때문이다.[69]
1990년대와 21세기 초, 주류 AI는 음성 인식 및 추천 알고리즘과 같이 AI가 검증 가능한 결과와 상업적 응용을 생산할 수 있는 특정 하위 문제에 집중하여 상업적 성공과 학문적 명성을 얻었다.[70] 이러한 "응용 AI" 시스템은 이제 기술 산업 전반에 걸쳐 광범위하게 사용되고 있으며, 이러한 연구는 학계와 산업계 모두에서 막대한 자금 지원을 받고 있다. 2018년 기준[update], 이 분야의 개발은 신흥 트렌드로 간주되었고, 10년 이상 지나야 성숙 단계에 도달할 것으로 예상되었다.[71]
세기 전환기에 많은 주류 AI 연구자들은[72] 다양한 하위 문제를 해결하는 프로그램을 결합하여 강력한 AI를 개발할 수 있기를 희망했다. 한스 모라벡은 1988년에 다음과 같이 썼다.
나는 인공지능으로 가는 이러한 상향식 경로가 언젠가 전통적인 하향식 경로를 절반 이상 충족시켜, 추론 프로그램에서 너무나 답답하게 회피되었던 실제 세계의 능력과 상식 지식을 제공할 것이라고 확신한다. 두 노력을 결합하는 은유적인 골든 스파이크가 박히면 완전히 지능적인 기계가 탄생할 것이다.[72]
그러나 당시에도 이는 논쟁의 여지가 있었다. 예를 들어, 프린스턴 대학교의 스테판 하르나드는 1990년 기호 접지 가설에 대한 논문을 다음과 같이 결론지었다.
인지 모델링에 대한 "하향식" (기호적) 접근 방식이 "상향식" (감각적) 접근 방식과 중간 어디선가 만날 것이라는 기대가 종종 표명되었다. 이 논문의 접지 고려사항이 유효하다면, 이러한 기대는 절망적으로 모듈식이며 감각에서 기호로 가는 유일한 실행 가능한 경로는 오직 상향식뿐이다. 컴퓨터의 소프트웨어 수준과 같은 자유로운 기호 수준은 이 경로로 결코 도달할 수 없으며 (그 반대도 마찬가지), 왜 우리가 그러한 수준에 도달하려고 해야 하는지도 명확하지 않다. 왜냐하면 거기에 도달하는 것은 우리의 기호를 본질적인 의미에서 뿌리 뽑는 것 (그로 인해 우리 자신을 프로그래밍 가능한 컴퓨터의 기능적 등가물로 격하시키는 것)에 불과할 것으로 보이기 때문이다.[73]
"인공 일반 지능"이라는 용어는 1997년에 마크 구브루드(Mark Gubrud)가 완전 자동화된 군사 생산 및 작전의 함의를 논의하면서 처음 사용되었다.[74] AGI의 수학적 형식주의는 2000년에 마르쿠스 후터가 제안했다. AIXI라고 명명된 이 제안된 AGI 에이전트는 "광범위한 환경에서 목표를 만족시키는 능력"을 최대화한다.[75] 인간과 유사한 행동을 보이는 대신 수학적 지능 정의를 최대화하는 능력으로 특징지어지는 이 유형의 AGI는[76] 보편적 인공지능이라고도 불렸다.[77]
AGI라는 용어는 2002년경 셰인 레그와 벤 거첼에 의해 재도입되고 대중화되었다.[78] 2006년 AGI 연구 활동은 페이 왕(Pei Wang)과 벤 거첼[79]에 의해 "출판물 및 예비 결과 생산"으로 설명되었다. AGI에 대한 첫 번째 여름 학교는 2009년 중국 샤먼에서[80] 샤먼 대학교 인공 두뇌 연구소와 오픈코그에 의해 조직되었다. 첫 번째 대학 강좌는 토도르 아르나우도프(Todor Arnaudov)에 의해 불가리아 플로브디프 대학교에서 2010년[81]과 2011년[82]에 개설되었다. 매사추세츠 공과대학교 (MIT)는 2018년에 렉스 프리드먼이 조직하고 여러 초청 강사가 참여하는 AGI 강좌를 개설했다.
2023년 현재 AGI의 개발과 잠재적 달성은 AI 커뮤니티 내에서 치열한 논쟁의 주제로 남아 있다. 전통적인 합의는 AGI가 먼 목표라고 여겼지만, 최근의 발전으로 일부 연구자와 업계 관계자들은 AGI의 초기 형태가 이미 존재할 수 있다고 주장한다.[83] AI 선구자 허버트 사이먼은 1965년에 "기계는 20년 안에 인간이 할 수 있는 어떤 작업이든 할 수 있을 것"이라고 추측했다. 이 예측은 실현되지 않았다. 폴 앨런 마이크로소프트 공동 창업자는 21세기에는 그러한 지능이 불가능할 것이라고 믿었는데, "예측 불가능하고 근본적으로 예측할 수 없는 돌파구"와 "인지에 대한 과학적으로 깊은 이해"가 필요하기 때문이라는 것이다.[84] 2014년 가디언에 기고한 로봇공학자 앨런 윈필드는 현대 컴퓨팅과 인간 수준 인공지능 사이의 간극이 현재의 우주 비행과 실용적인 초광속 우주 비행 사이의 간극만큼 넓다고 주장했다.[85]
또 다른 과제는 지능이 무엇을 의미하는지 정의하는 데 명확성이 부족하다는 것이다. 의식이 필요한가? 목표를 설정하고 추구하는 능력을 보여야 하는가? 모델 크기가 충분히 증가하면 지능이 나타나는 순전히 규모의 문제인가? 계획, 추론, 인과적 이해와 같은 기능이 필요한가? 지능이 뇌와 그 특정 기능들을 명시적으로 복제해야 하는가? 감정이 필요한가?[86]
대부분의 AI 연구자들은 미래에 강력한 AI를 달성할 수 있다고 믿지만, 휴버트 드라이퍼스와 로저 펜로즈와 같은 일부 사상가들은 강력한 AI를 달성할 가능성을 부인한다.[87][88]존 매카시 (컴퓨터 과학자)는 인간 수준 AI가 달성될 것이라고 믿는 사람들 중 한 명이지만, 현재의 진행 수준으로는 정확한 날짜를 예측할 수 없다고 본다.[89] AGI의 실현 가능성에 대한 AI 전문가들의 견해는 변동한다. 2012년과 2013년에 실시된 4개의 여론 조사에 따르면, 전문가들 사이에서 AGI가 도래할 것이라고 50% 확신하는 시점에 대한 중앙값 추정치는 여론 조사에 따라 2040년에서 2050년 사이였고, 평균은 2081년이었다. 전문가들 중 16.5%는 90% 확신으로 동일한 질문을 받았을 때 "결코 아님"이라고 답했다.[90][91] 추가적인 AGI 진행 상황 고려사항은 위 인간 수준 AGI 확인을 위한 테스트에서 찾을 수 있다.
기계 지능 연구소의 스튜어트 암스트롱(Stuart Armstrong)과 카지 소탈라(Kaj Sotala)의 보고서에 따르면 "60년 동안 인간 수준 AI의 도래를 예측하는 데는 예측 시점으로부터 15년에서 25년 사이라는 강한 편향이 있었다". 그들은 1950년에서 2012년 사이에 인간 수준 AI가 언제 나타날지에 대한 95가지 예측을 분석했다.[92]
2023년 마이크로소프트 연구원들은 GPT-4에 대한 상세한 평가를 발표했다. 그들은 "GPT-4의 광범위하고 심층적인 능력에 비추어 볼 때, 이는 인공 일반 지능(AGI) 시스템의 초기 (아직 불완전하지만) 버전으로 합리적으로 간주될 수 있다고 믿는다"고 결론 내렸다.[93] 2023년 또 다른 연구에서는 GPT-4가 토런스 창의력 사고력 검사에서 인간의 99%를 능가한다고 보고했다.[94][95]
블레이즈 아구에라 이 아르카스와 피터 노빅은 2023년 "인공 일반 지능은 이미 여기에 있다"는 기사를 썼는데, 이는 파운데이션 모델이 이미 상당한 수준의 일반 지능을 달성했다고 주장하는 내용이었다. 그들은 이러한 견해에 대한 거부감이 주로 네 가지 이유에서 비롯된다고 썼다: "AGI 측정 지표에 대한 건전한 회의론", "대체 AI 이론이나 기술에 대한 이념적 고수", "인간 (또는 생물학적) 예외주의에 대한 헌신", 또는 "AGI의 경제적 함의에 대한 우려".[96]
AI는 다양한 언어 이해 및 시각 이해 벤치마크에서 인간을 능가했다.[97] 2023년 현재, 파운데이션 모델은 여전히 고급 추론 및 계획 능력이 부족하지만, 빠른 발전이 예상된다.[98]
인공지능의 발전은 역사적으로 급격한 발전 시기와 진전이 멈춘 것처럼 보이는 시기를 번갈아 겪었다.[87] 각 공백기는 하드웨어, 소프트웨어 또는 둘 다의 근본적인 발전으로 인해 추가 발전을 위한 공간이 마련되면서 끝났다.[87][99][100] 예를 들어, 20세기에는 딥 러닝을 구현하기에 충분한 컴퓨터 하드웨어가 없었는데, 이는 많은 수의 GPU 지원 CPU를 필요로 한다.[101]
2006년 자신의 책 서문에서[102] 거첼은 진정으로 유연한 AGI가 구축되기까지 필요한 시간을 10년에서 1세기 이상으로 추정한다고 말한다. 2007년 기준[update], AGI 연구 커뮤니티의 합의는 레이 커즈와일이 2005년 특이점이 온다에서[103] 논의한 타임라인 (즉, 2015년에서 2045년 사이)이 타당하다는 것이었다.[104] 주류 AI 연구자들은 이러한 빠른 발전이 있을지에 대해 광범위한 의견을 제시했다. 2012년 그러한 95가지 의견에 대한 메타 분석은 현대 및 역사적 예측 모두에서 AGI의 시작이 16~26년 이내에 발생할 것이라고 예측하는 경향을 발견했다. 이 논문은 의견을 전문가 또는 비전문가로 분류하는 방식에 대해 비판을 받았다.[105]
2012년 알렉스 크리제프스키, 일리야 수츠케버, 제프리 힌턴은 알렉스넷이라는 신경망을 개발했는데, 이 신경망은 이미지넷 대회에서 상위 5개 테스트 오류율 15.3%로 우승하여, 2위의 26.3% (다른 사전 정의된 분류기의 점수를 가중합한 전통적인 접근 방식)보다 훨씬 우수한 성적을 거두었다.[106] 알렉스넷은 현재의 딥 러닝 물결의 초기 개척자로 간주되었다.[106]
2017년, 펭 류(Feng Liu), 융 쉬(Yong Shi), 잉 류(Ying Liu) 연구원들은 구글 AI, 애플의 Siri 등 공개적으로 이용 가능하고 자유롭게 접근할 수 있는 약한 AI에 대해 지능 테스트를 실시했다. 이들 AI는 최대 47정도의 IQ 값을 기록했으며, 이는 약 6세 초등학생에 해당한다. 성인은 평균적으로 약 100에 도달한다. 비슷한 테스트가 2014년에 수행되었는데, 이때 IQ 점수는 최대 27이었다.[107][108]
2020년 오픈AI는 특정 훈련 없이도 다양한 작업을 수행할 수 있는 언어 모델인 GPT-3를 개발했다. 벤추어비트 기사의 게리 그로스만에 따르면, GPT-3가 AGI의 예시가 아니라는 합의가 있지만, 일부에서는 이를 좁은 AI 시스템으로 분류하기에는 너무 발전했다고 간주한다.[109]
같은 해 제이슨 로러(Jason Rohrer)는 자신의 GPT-3 계정을 사용하여 챗봇을 개발하고 "프로젝트 디셈버(Project December)"라는 챗봇 개발 플랫폼을 제공했다. 오픈AI는 안전 지침을 준수하기 위해 챗봇 변경을 요청했고, 로러는 프로젝트 디셈버를 GPT-3 API에서 연결 해제했다.[110]
2022년 딥마인드는 600가지 이상의 다양한 작업을 수행할 수 있는 "다목적" 시스템인 Gato를 개발했다.[111]
이것이 실제로 사람들보다 더 똑똑해질 수 있다는 생각은 [...] 소수의 사람들만 믿었다. 하지만 대부분의 사람들은 그것이 요원한 일이라고 생각했다. 나도 요원한 일이라고 생각했다. 30년에서 50년 이상 걸릴 것이라고 생각했다. 물론, 이제는 그렇게 생각하지 않는다.
그는 2024년에 인간보다 똑똑한 시스템이 5년에서 20년 이내에 나타날 수 있다고 (낮은 확신으로) 추정했으며, 그에 따른 실존적 위험을 강조했다.[113]
2023년 5월, 데미스 허사비스도 비슷하게 "지난 몇 년간의 발전은 정말 놀라웠다"며, 그 속도가 늦춰질 이유가 없다고 말하며 10년 이내, 심지어 몇 년 안에 AGI가 나타날 것이라고 예상했다.[114] 2024년 3월, 엔비디아의 젠슨 황 최고경영자(CEO)는 5년 안에 AI가 인간만큼 어떤 테스트든 통과할 수 있을 것이라고 예상했다.[115] 2024년 6월, 전 오픈AI 직원이었던 AI 연구자 레오폴드 아센브레너는 2027년까지 AGI가 "놀랍도록 그럴듯하다"고 추정했다.[116]
2025년 9월, 지난 15년간 과학자 및 산업 전문가들의 설문 조사를 검토한 보고서에 따르면, 대부분이 인공 일반 지능(AGI)이 2100년 이전에 도래할 것이라는 데 동의했다.[117] AIMultiple의 최신 분석에 따르면, "현재 AI 연구자들의 설문 조사는 2040년경 AGI를 예측하고 있다."[117]
챗GPT와 같은 트랜스포머 모델의 개발이 AGI로 가는 가장 유망한 길로 여겨지지만,[118][119]전뇌 에뮬레이션은 대안적인 접근 방식으로 사용될 수 있다. 전뇌 시뮬레이션은 생물학적 뇌를 스캔하고 매핑하여 상세한 뇌 모델을 구축한 다음, 컴퓨터 시스템 또는 다른 전산 장치에서 이를 복사하고 시뮬레이션한다. 컴퓨터 시뮬레이션 모델은 원본과 실질적으로 동일하게 작동하도록 충분히 충실해야 한다.[120] 전뇌 에뮬레이션은 계산신경과학과 신경정보학에서 논의되는 뇌 시뮬레이션의 한 유형이며, 의료 연구 목적으로도 사용된다. 이는 인공지능 연구에서 강력한 AI에 대한 접근 방식으로 논의되어 왔다.[104] 필요한 상세한 이해를 제공할 수 있는 신경영상 기술은 빠르게 발전하고 있으며, 미래학자레이 커즈와일은 책 특이점이 온다에서[103] 에뮬레이션에 필요한 컴퓨팅 능력과 비슷한 시간 척도에서 충분한 품질의 지도가 제공될 것이라고 예측한다.
다양한 수준에서 인간 뇌를 에뮬레이션하는 데 필요한 처리 능력 추정치 (레이 커즈와일, 안데르스 산드베리 및 닉 보스트롬의 자료), 그리고 TOP500에서 연도별로 매핑된 가장 빠른 슈퍼컴퓨터. 로그 스케일과 1.2년마다 계산 능력이 두 배가 된다고 가정하는 지수 추세선을 주목하라. 커즈와일은 신경 시뮬레이션에서 마음 업로드가 가능하다고 믿는 반면, 산드베리, 보스트롬 보고서는 의식 (심리철학)이 어디에서 발생하는지에 대해 덜 확신한다.[121]
낮은 수준의 뇌 시뮬레이션을 위해서는 인간의 뇌 안에 있는 엄청난 양의 시냅스를 고려할 때, 매우 강력한 컴퓨터 또는 GPU 클러스터가 필요할 것이다. 1011 (천억)개의 신경 세포 각각은 평균적으로 다른 신경 세포와 7,000개의 시냅스 연결을 가지고 있다. 3세 아동의 뇌에는 약 1015개 (1천조)의 시냅스가 있다. 이 숫자는 나이가 들면서 감소하여 성인이 되면 안정화된다. 성인의 경우 추정치는 1014개에서 5×1014개 (100조에서 500조)의 시냅스로 다양하다.[122] 신경 활동의 간단한 스위치 모델을 기반으로 한 뇌의 처리 능력 추정치는 초당 약 1014개 (100조)의 시냅스 업데이트 (SUPS)이다.[123]
1997년 커즈와일은 인간의 뇌와 동등한 하드웨어에 필요한 다양한 추정치를 조사하여 초당 1016회의 계산이라는 수치를 채택했다.[d] (비교하자면, "계산"이 현재 슈퍼컴퓨터의 성능을 평가하는 데 사용되는 측정 단위인 1개의 "부동 소수점 연산"과 동일하다고 가정하면, 1016 "계산"은 10 페타플롭스에 해당하며, 이는 2011년에 달성되었고, 1018는 2022년에 달성되었다.) 그는 이 수치를 사용하여 당시 컴퓨터 성능의 지수적 성장이 계속된다면 필요한 하드웨어가 2015년에서 2025년 사이에 언젠가 사용 가능해질 것이라고 예측했다.
커즈와일이 가정하고 현재 많은 인공 신경망 구현에서 사용되는 인공 신경 세포 모델은 생물학적 뉴런에 비해 단순하다. 뇌 시뮬레이션은 생물학적 신경 세포의 상세한 세포 행동을 포착해야 할 것이며, 이는 현재 넓은 개요로만 이해되고 있다. 신경 행동의 생물학적, 화학적, 물리적 세부 사항 (특히 분자 규모에서)을 완전히 모델링함으로써 발생하는 오버헤드는 커즈와일의 추정치보다 몇 자릿수 더 큰 계산 능력을 필요로 할 것이다. 또한, 추정치는 인지 과정에서 역할을 하는 것으로 알려진 신경교 세포를 고려하지 않는다.[127]
시뮬레이션 기반 뇌 접근 방식에 대한 근본적인 비판은 체화된 인지 이론에서 비롯된다. 이 이론은 인간의 신체화가 인간 지능의 필수적인 측면이며 의미를 근거 지우는 데 필요하다고 주장한다.[128][129] 이 이론이 옳다면, 완전히 기능하는 뇌 모델은 단순히 뉴런 이상의 것 (예: 로봇 몸체)을 포함해야 할 것이다. 거첼[104]은 세컨드 라이프와 같은 메타버스에서 가상 신체화를 옵션으로 제안하지만, 이것이 충분할지는 알려져 있지 않다.
1980년 철학자 존 설은 그의 중국어 방 논증의 일환으로 "강한 AI"라는 용어를 만들었다.[130] 그는 인공지능에 대한 두 가지 가설 사이의 구별을 제안했다.[e]
강한 AI 가설: 인공지능 시스템은 "마음"과 "의식"을 가질 수 있다.
약한 AI 가설: 인공지능 시스템은 생각하는 것처럼 행동하고 마음과 의식을 가질 수 있을 뿐이다.
그는 첫 번째 것을 "강하다"고 불렀는데, 이는 더 강한 주장을 하기 때문이다. 즉, 우리가 테스트할 수 있는 능력을 넘어선 특별한 일이 기계에 일어났다고 가정한다. "약한 AI" 기계의 행동은 "강한 AI" 기계와 동일하겠지만, 후자는 주관적인 의식적 경험도 가질 것이다. 이 용법은 학술 AI 연구 및 교과서에서도 흔하다.[131]
설과 주류 AI와는 대조적으로, 레이 커즈와일과 같은 일부 미래학자들은 "강한 AI"라는 용어를 "인간 수준 인공 일반 지능"을 의미하는 데 사용한다.[103] 이는 인간 수준 AGI에 의식 (심리철학)이 필요하다고 가정하지 않는 한 설의 강한 AI와 동일하지 않다. 설과 같은 학술 철학자들은 그것이 사실이라고 믿지 않으며, 대부분의 인공지능 연구자들에게 이 질문은 논외이다.[132]
주류 AI는 프로그램이 어떻게 작동하는지에 가장 큰 관심을 둔다.[133]러셀과 노빅에 따르면, "프로그램이 작동하는 한, 그것을 실제라고 부르든 시뮬레이션이라고 부르든 상관하지 않는다."[132] 프로그램이 마음을 가진 것처럼 행동할 수 있다면, 실제로 마음을 가지고 있는지 알 필요가 없다. 실제로 그것을 알 방법도 없을 것이다. AI 연구에서 설의 "약한 AI 가설"은 "인공 일반 지능이 가능하다"는 진술과 동등하다. 따라서 러셀과 노빅에 따르면, "대부분의 AI 연구자들은 약한 AI 가설을 당연하게 여기고, 강한 AI 가설에는 관심이 없다."[132] 따라서 학술 AI 연구에서 "강한 AI"와 "AGI"는 두 가지 다른 것이다.
감각성 (또는 "현상적 의식"): 인지된 것을 추론하는 능력과 달리 인지 또는 감정을 주관적으로 "느끼는" 능력. 데이비드 차머스와 같은 일부 철학자들은 "의식"이라는 용어를 현상적 의식, 즉 감각성과 거의 동일한 의미로만 사용한다.[134] 주관적 경험이 왜 그리고 어떻게 발생하는지 결정하는 것은 의식의 어려운 문제로 알려져 있다.[135]토마스 네이글은 1974년에 의식적이라는 것은 무언가를 "느낀다"는 것이라고 설명했다. 의식적이지 않다면 아무것도 느끼지 않을 것이다. 네이글은 박쥐를 예로 든다. 우리는 "박쥐가 된다는 것은 무엇을 느끼는가?"라고 합리적으로 물을 수 있다. 그러나 우리는 "토스터가 된다는 것은 무엇을 느끼는가?"라고 묻지는 않을 것이다. 네이글은 박쥐는 의식이 있는 것처럼 보이지만 (즉, 의식을 가지고 있지만) 토스터는 그렇지 않다고 결론 내린다.[136] 2022년 구글 엔지니어는 회사의 AI 챗봇인 LaMDA가 감각성을 달성했다고 주장했지만, 이 주장은 다른 전문가들에 의해 널리 반박되었다.[137]
자의식: 자신을 별개의 개체로 의식적으로 인식하는 것, 특히 자신의 생각을 의식적으로 인식하는 것. 이는 단순히 "자신의 생각의 주체"가 되는 것과는 반대이다. 운영 체제나 디버거는 "자신을 인식할 수 있지만" (즉, 다른 모든 것을 표현하는 방식과 동일하게 자신을 표현할 수 있지만) 이는 사람들이 일반적으로 "자의식"이라는 용어를 사용할 때 의미하는 바가 아니다.[f] 일부 고급 AI 모델에서는 시스템이 자체 인지 과정 및 피드백 패턴에 대한 내부 표현을 구축하며, 자체 모델링 프레임워크 내에서 '당신'과 같은 2인칭 구성을 사용하여 자신을 지칭하기도 한다.
이러한 특성에는 도덕적 차원이 있다. AI 감각성은 동물과 마찬가지로 복지 및 법적 보호 문제에 대한 우려를 불러일으킬 것이다.[138] 인지 능력과 관련된 의식의 다른 측면도 AI 권리 개념과 관련이 있다.[139] 고급 AI를 기존 법적 및 사회적 프레임워크와 통합하는 방법을 찾는 것은 신흥 문제이다.[140]
AGI는 대부분의 직업에서 생산성과 효율성을 향상시킬 수 있다. 예를 들어, 공중 보건 분야에서 AGI는 의료 연구, 특히 암 퇴치 연구를 가속화할 수 있다.[141] 노인들을 돌보고,[142] 빠르고 고품질의 의료 진단에 대한 접근성을 민주화할 수 있다. 재미있고 저렴하며 개인화된 교육을 제공할 수 있다.[142] 생성된 부가 적절하게 재분배된다면 생존을 위해 일할 필요가 없어질 수도 있다.[142][143] 이는 또한 급진적으로 자동화된 사회에서 인간의 위치에 대한 질문을 제기한다.
AGI는 또한 합리적인 결정을 내리고 재난을 예측하고 예방하는 데 도움이 될 수 있다. 또한 나노 기술이나 기후 공학과 같은 잠재적으로 재앙적인 기술의 이점을 얻으면서 관련 위험을 피하는 데도 도움이 될 수 있다.[144] 만약 AGI의 주요 목표가 인간 멸종과 같은 실존적 재난을 예방하는 것이라면 (취약한 세계 가설이 사실로 밝혀질 경우 어려울 수 있음)[145] 우리 삶의 질에 미치는 영향을 최소화하면서 위험을 drastically하게 줄이는 조치를 취할 수 있다.[144]
AGI는 의료 진단을 더 빠르고, 저렴하며, 정확하게 만들어 의료 서비스를 향상시킬 것이다. AI 기반 시스템은 환자 데이터를 분석하고 질병을 조기에 발견할 수 있다.[146] 이는 환자들이 더 빨리 진단받고 질병이 악화되기 전에 의료 서비스를 받을 수 있게 된다는 것을 의미한다. AGI 시스템은 유전학과 병력을 기반으로 맞춤형 치료 계획을 추천할 수도 있다.[147]
또한 AGI는 분자 상호 작용을 시뮬레이션하여 신약 발견을 가속화하고 암 및 알츠하이머병과 같은 질병에 대한 신약 개발 시간을 단축할 수 있다.[148] 병원에서는 AGI 기반 로봇 보조원이 수술을 돕고, 환자를 모니터링하며, 실시간 의료 지원을 제공할 수 있다. 또한 AGI 기반 간병인 및 건강 모니터링 시스템을 통해 고령 인구가 독립성을 유지하도록 돕는 노인 돌봄에도 사용될 수 있다.
AGI는 대규모 데이터셋을 평가하여 개별 환자의 필요에 맞는 맞춤형 치료 계획 개발을 지원할 수 있다. 이 접근 방식은 치료법이 환자의 고유한 병력 및 유전적 프로파일을 기반으로 최적화되도록 보장하여 결과를 개선하고 부작용을 줄인다.[149]
AGI는 과학 연구와 혁신을 위한 도구가 될 수 있다. 물리학 및 수학과 같은 분야에서 AGI는 양자 시스템 모델링, 암흑 물질 이해 또는 수학 정리 증명과 같이 막대한 계산 능력을 요구하는 복잡한 문제를 해결하는 데 도움이 될 수 있다.[150] 수십 년 동안 미해결로 남아 있던 문제들이 AGI를 통해 해결될 수 있을 것이다.
AGI는 또한 사회를 재편할 수 있는 기술적 돌파구를 이끌 수 있다. 이는 공학 설계 최적화, 새로운 재료 발견, 자동화 개선을 통해 가능하다. 예를 들어, AI는 이미 더 효율적인 재생 에너지원 개발과 제조 공급망 최적화에 중요한 역할을 하고 있다.[151] 미래의 AGI 시스템은 이러한 혁신을 더욱 발전시킬 수 있다.
AGI는 각 학생의 강점, 약점, 관심사에 특화된 학습 프로그램을 만들어 교육을 개인화할 수 있다. 기존의 교수법과 달리 AI 기반 튜터링 시스템은 실시간으로 수업을 조절하여 학생들이 어려운 개념을 이해하고 넘어갈 수 있도록 보장할 수 있다.[152]
직장에서 AGI는 반복적인 작업을 자동화하여 근로자들이 보다 창의적이고 전략적인 역할에 집중할 수 있도록 해줄 것이다.[151] 또한 물류를 최적화하고, 사이버 보안을 강화하며, 비즈니스 운영을 간소화하여 산업 전반의 효율성을 향상시킬 수 있다. 제대로 관리된다면 AGI 기반 자동화로 생성된 부는 사람들이 생계를 위해 일할 필요를 줄일 수 있다. 일하는 것이 선택 사항이 될 수도 있다.[153]
AGI는 지구촌 위협을 예방하고 관리하는 데 중요한 역할을 할 수 있다. 실시간 데이터 분석을 통해 허리케인, 지진, 전염병을 예측하여 정부와 조직이 자연재해에 보다 효과적으로 대응할 수 있도록 도울 수 있다.[154] 위성, 센서, 역사 기록에서 얻은 방대한 데이터셋을 분석하여 AGI는 조기 경보 시스템을 개선하고, 더 빠른 재난 대응과 인명 피해 최소화를 가능하게 할 수 있다.
기후 과학 분야에서 AGI는 탄소 배출량을 줄이고, 에너지 자원을 최적화하며, 기후 변화 효과를 완화하기 위한 새로운 모델을 개발할 수 있다. 또한 기상 예측 정확도를 향상시켜 정책 입안자들이 보다 효과적인 환경 규제를 시행할 수 있도록 한다. 추가적으로 AGI는 나노 기술 및 생명 공학과 같이 상당한 위험을 수반하는 신기술을 복잡한 시스템을 분석하고 의도하지 않은 결과를 예측함으로써 규제하는 데 도움을 줄 수 있다.[150] 더 나아가 AGI는 대규모 사이버 위협을 감지하고 완화하며, 핵심 인프라를 보호하고, 디지털 전쟁을 예방함으로써 사이버 보안을 지원할 수 있다.
AGI는 자연 환경을 보존하고 멸종 위기에 처한 종들을 보호하는 데 크게 기여할 수 있다. 위성 이미지, 기후 데이터, 야생 동물 패턴을 분석하여 AGI 시스템은 환경 위협을 조기에 식별하고 목표 지향적인 보전 전략을 권장할 수 있다.[155] AGI는 토지 이용을 최적화하고, 밀렵이나 삼림 벌채와 같은 불법 활동을 실시간으로 모니터링하며, 생태계를 복원하기 위한 전 세계적인 노력을 지원할 수 있다. AGI가 개발한 고급 예측 모델은 생물 다양성 손실을 되돌리고, 핵심 종의 생존을 보장하며, 생태 균형을 유지하는 데도 도움이 될 수 있다.[156]
AGI는 인류가 지구를 넘어 탐사하고 정착하는 능력을 혁신적으로 바꿀 수 있다. 고급 문제 해결 능력을 갖춘 AGI는 내비게이션, 자원 관리, 비상 대응을 포함한 복잡한 우주 임무를 자율적으로 관리할 수 있다. 외계 환경에 최적화된 생명 유지 시스템, 서식지, 우주선 설계를 가속화할 수 있다. 또한 AGI는 생존 시나리오를 시뮬레이션하고 인간이 새로운 세계에 적응하도록 도와 화성 같은 행성 식민지화 노력을 지원하여 행성 간 문명의 가능성을 확장할 수 있다.[157]
AGI는 "지구에서 기원한 지능형 생명체의 조기 멸종 또는 바람직한 미래 발전을 위한 잠재력의 영구적이고 급격한 파괴"를 위협하는 위험인 여러 유형의 실존적 위험을 나타낼 수 있다.[158] AGI로 인한 인류 멸종의 위험은 많은 논쟁의 주제였지만, AGI의 개발이 영구적으로 결함 있는 미래로 이어질 가능성도 있다. 특히 AGI는 이를 개발하는 사람들의 가치관을 전파하고 보존하는 데 사용될 수 있다. 만약 인류가 과거 노예 제도와 유사한 도덕적 맹점을 여전히 가지고 있다면, AGI는 이를 돌이킬 수 없게 고착시켜 도덕적 진보를 방해할 수 있다.[159] 더욱이, AGI는 대중감시와 세뇌를 용이하게 하여 확고한 억압적인 전 세계적 전체주의 정권을 만들 수 있다.[160][161] 기계 자체에도 위험이 있다. 미래에 감각을 갖거나 도덕적 고려를 할 가치가 있는 기계가 대량 생산된다면, 그들의 복지와 이익을 무기한으로 무시하는 문명적 경로에 참여하는 것은 실존적 재앙이 될 수 있다.[162][163] AGI가 인류의 미래를 얼마나 향상시키고 다른 실존적 위험을 줄이는 데 도움이 될 수 있는지를 고려할 때, 토비 오드는 이러한 실존적 위험을 "적절한 주의를 기울여 진행해야 할 논거"이지 "AI를 포기해야 할 논거"는 아니라고 말한다.[160]
따라서, 헤아릴 수 없는 이점과 위험의 가능한 미래에 직면하여, 전문가들은 최상의 결과를 보장하기 위해 가능한 모든 것을 하고 있는 것이 확실하지 않은가? 틀렸다. 만약 우월한 외계 문명이 우리에게 '몇 십 년 안에 도착할게요'라는 메시지를 보냈다면, 우리는 '알겠습니다, 도착하면 전화하세요. 불은 켜 둘게요'라고만 답할 것인가? 아마 그렇지 않을 것이다. 하지만 이것이 AI에서 벌어지고 있는 일과 거의 같다.[166]
”
인류의 잠재적 운명은 때때로 인간 활동으로 위협받는 고릴라의 운명과 비교되어 왔다. 이 비교는 더 큰 지능이 인류가 고릴라를 지배하게 했고, 고릴라는 예상할 수 없었던 방식으로 취약해졌다는 것을 시사한다. 결과적으로 고릴라는 악의가 아니라 단순히 인간 활동의 부수적인 피해로 멸종 위기에 처한 종이 되었다.[167]
회의론자 얀 르쿤은 AGI가 인류를 지배하려는 욕망을 갖지 않을 것이며, 우리가 그들을 의인화하고 인간처럼 그들의 의도를 해석하지 않도록 주의해야 한다고 생각한다. 그는 사람들이 "초지능 기계를 설계할 만큼 충분히 똑똑하지 못하면서도 안전 장치 없는 바보 같은 목표를 부여할 정도로 터무니없이 어리석을" 일은 없을 것이라고 말했다.[168] 반면에, 도구적 수렴 개념은 거의 어떤 목표를 가지고 있든 지능형 에이전트는 이러한 목표를 달성하기 위한 중간 단계로서 생존하고 더 많은 힘을 얻으려는 이유를 가질 것이라고 제안한다. 그리고 이는 감정을 가질 필요가 없다.[169]
실존적 위험에 대해 우려하는 많은 학자들은 "통제 문제" 해결을 위한 더 많은 연구를 옹호하여 다음 질문에 답하고자 한다. 즉, 프로그래머는 재귀적으로 개선되는 AI가 초지능에 도달한 후에도 친근하고 파괴적이지 않은 방식으로 계속 작동할 확률을 최대화하기 위해 어떤 종류의 안전 장치, 알고리즘 또는 아키텍처를 구현할 수 있는가?[170][171] 통제 문제 해결은 인공지능 군비 경쟁 (경쟁사보다 먼저 제품을 출시하기 위해 안전 예방 조치를 최저 수준으로 떨어뜨릴 수 있음)[172]과 무기 시스템에 AI를 사용하는 것 때문에 복잡해진다.[173]
AI가 실존적 위험을 초래할 수 있다는 주장은 반대자들도 있다. 회의론자들은 보통 AGI가 단기적으로는 나타날 가능성이 낮거나, AGI에 대한 우려가 현재 AI와 관련된 다른 문제들로부터 주의를 분산시킨다고 말한다.[174] 전 구글 사기 단속 책임자 슈만 고제마줌더는 기술 산업 외부의 많은 사람들이 기존 챗봇과 LLM을 이미 AGI처럼 인식하고 있어 더 큰 오해와 공포를 초래한다고 본다.[175]
회의론자들은 때때로 이 주장이 비합리적인 전능한 신에 대한 믿음을 비합리적인 초지능 가능성에 대한 믿음으로 대체하는 암호-종교적이라고 비난한다.[176] 일부 연구자들은 특정 AI 그룹(오픈AI, 앤트로픽, 딥마인드, 컨젝처 등)의 AI 실존적 위험에 대한 홍보 캠페인이 규제 포획을 시도하고 제품에 대한 관심을 부풀리려는 시도일 수 있다고 믿는다.[177][178]
2023년, 구글 딥마인드, 오픈AI, 앤트로픽의 CEO들은 다른 업계 리더 및 연구자들과 함께 "AI로 인한 멸종 위험 완화는 팬데믹 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 세계적인 우선순위가 되어야 한다"고 주장하는 공동 성명을 발표했다.[165]
오픈AI 연구원들은 2023년에 "미국 노동력의 80%가 LLM 도입으로 인해 작업의 최소 10%에 영향을 받을 수 있으며, 약 19%의 노동자는 작업의 최소 50%에 영향을 받을 수 있다"고 추정했다.[179][180] 그들은 수학자, 회계사, 웹 디자이너와 같은 화이트칼라 노동자가 가장 많이 노출될 것으로 본다.[180] AGI는 더 나은 자율성, 의사 결정 능력, 다른 컴퓨터 도구와의 인터페이스 능력, 그리고 로봇화된 신체를 제어하는 능력을 가질 수 있다. 최고의 AI 기업 내부자들 사이에서 일반적인 믿음은 대부분의 노동자들이 AGI로 인해 기술적 실업에 직면하게 될 것이며, 이는 화이트칼라 직업부터 시작하여 로봇 공학이 발전함에 따라 블루 칼라 직업으로 확대될 것이라는 것이다.[181] 이 아이디어를 비판하는 사람들은 AGI가 인간을 대체하기보다는 보완할 것이며, 자동화는 단기적으로는 일자리를 대체하지만 장기적으로는 그렇지 않다고 주장한다.[182][183][184]
스티븐 호킹에 따르면, 자동화가 삶의 질에 미치는 결과는 부의 재분배 방식에 달려 있을 것이다.[143]
“
기계로 생산된 부가 공유되면 모든 사람이 호화로운 여가를 누릴 수 있거나, 기계 소유자들이 부의 재분배에 반대하는 로비에 성공하면 대부분의 사람들이 비참하게 가난해질 수 있다. 지금까지 추세는 두 번째 선택지로 향하는 것으로 보인다. 기술이 불평등을 끊임없이 증가시키고 있다.
”
엘론 머스크는 2021년에 사회의 자동화로 인해 정부가 보편적 기본소득 (UBI)을 채택해야 할 것이라고 주장했다.[185] 힌턴도 2025년에 영국 정부에 AI로 인한 실업에 대한 대응으로 UBI를 채택할 것을 권고했다.[186] 2023년 힌턴은 "나는 사회주의자이다 [...] 나는 미디어와 '계산 수단'의 사적 소유가 좋지 않다고 생각한다"고 말했다.[187]
12See below for the origin of the term "strong AI", and see the academic definition of "강한 AI" and weak AI in the article 중국어 방.
↑The 라이트힐 보고서 specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.[62] In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research".[63][64]
↑As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."[68]
↑In "Mind Children"[124] 1015 cps is used. More recently, in 1997,[125] Moravec argued for 108 MIPS which would roughly correspond to 1014 cps. Moravec talks in terms of MIPS, not "cps", which is a non-standard term Kurzweil introduced.
↑As defined in a standard AI textbook: "The assertion that machines could act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."[123]
↑Goertzel, Ben (2014). 《Artificial General Intelligence: Concept, State of the Art, and Future Prospects》. 《Journal of Artificial General Intelligence》5. 1–48쪽. Bibcode:2014JAGI....5....1G. doi:10.2478/jagi-2014-0001.
↑Lake, Brenden; Ullman, Tom; Tenenbaum, Joshua; Gershman, Samuel (2017). 《Building machines that learn and think like people》. 《Behavioral and Brain Sciences》40. arXiv:1604.00289. doi:10.1017/S0140525X16001837. PMID27881212.지원되지 않는 변수 무시됨: |article-number= (도움말)
↑Bostrom, Nick (2014). 《초지능: 경로, 위험, 전략》. Oxford University Press.
↑Legg, Shane (2023). 《Why AGI Might Not Need Agency》. Proceedings of the Conference on Artificial General Intelligence.
↑“OpenAI Charter” (미국 영어). 《OpenAI》. 2023년 4월 6일에 확인함. Our mission is to ensure that artificial general intelligence benefits all of humanity.
↑Butler, Octavia E. (1993). 《Parable of the Sower》. Grand Central Publishing. ISBN978-0-4466-7550-5. All that you touch you change. All that you change changes you.
↑Vinge, Vernor (1992). 《A Fire Upon the Deep》. Tor Books. ISBN978-0-8125-1528-2. The Singularity is coming.
↑de Charms, R. (1968). Personal causation. New York: Academic Press.
↑Van Eyghen, Hans (2025). 《AI Algorithms as (Un)virtuous Knowers》. 《Discover Artificial Intelligence》5. doi:10.1007/s44163-024-00219-z.지원되지 않는 변수 무시됨: |article-number= (도움말)
12Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN0-2621-6239-3
↑Muehlhauser, Luke (2013년 8월 11일). “What is AGI?”. Machine Intelligence Research Institute. 2014년 4월 25일에 원본 문서에서 보존된 문서. 2014년 5월 1일에 확인함.
↑Turing, Alan (2004). B. Jack Copeland (편집). 《Can Automatic Calculating Machines Be Said To Think? (1957)》. Oxford: Oxford University Press. 487–506쪽. ISBN978-0-1982-5079-1.
↑Jones, Cameron R.; Bergen, Benjamin K. (2024년 5월 9일). “People cannot distinguish GPT-4 from a human in a Turing test”. arXiv:2405.08007 [cs.HC].더 이상 지원되지 않는 변수를 사용함 (도움말)
↑Jones, Cameron R.; Bergen, Benjamin K. (2025년 3월 31일). “Large Language Models Pass the Turing Test”. arXiv:2503.23674 [cs.CL].더 이상 지원되지 않는 변수를 사용함 (도움말)
↑Mikhaylovskiy, Nikolay. “How do you test the strength of AI?”(PDF). 4쪽. 2025년 10월 19일에 확인함. The Goertzel Tests ... Learning to play an arbitrary video game based on experience only, or based on experience plus reading instructions
↑Aaronson, Scott (2024년 2월 12일). “The Problem of Human Specialness in the Age of AI”. 《Shtetl-Optimized》. 2025년 10월 19일에 확인함. Given any game or contest with suitably objective rules, which wasn’t specifically constructed to differentiate humans from machines, and on which an AI can be given suitably many examples of play, it’s only a matter of years before not merely any AI, but AI on the current paradigm (!), matches or beats the best human performance.
↑Shapiro, Stuart C. (1992). 〈Artificial Intelligence〉(PDF) Seco판. Stuart C. Shapiro (편집). 《Encyclopedia of Artificial Intelligence》. New York: John Wiley. 54–57쪽. 2016년 2월 1일에 원본 문서(PDF)에서 보존된 문서. (Section 4 is on "AI-Complete Tasks".)
↑Markoff, John (2005년 10월 14일). “Behind Artificial Intelligence, a Squadron of Bright Real People”. 《The New York Times》. 2023년 2월 2일에 원본 문서에서 보존된 문서. 2017년 2월 18일에 확인함. At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers.
↑“Who coined the term "AGI"?” (미국 영어). 《goertzel.org》. 2018년 12월 28일에 원본 문서에서 보존된 문서. 2018년 12월 28일에 확인함., via Life 3.0: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'
↑Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
↑Armstrong, Stuart, and Kaj Sotala. 2012. "How We're Predicting AI—or Failing To." In Beyond AI: Artificial Dreams, edited by Jan Romportl, Pavel Ircing, Eva Žáčková, Michal Polák and Radek Schuster, pp. 52–75. Plzeň: University of West Bohemia.
↑Guzik, Erik E.; Byrge, Christian; Gilde, Christian (2023년 12월 1일). 《The originality of machines: AI takes the Torrance Test》. 《Journal of Creativity》33. doi:10.1016/j.yjoc.2023.100065. ISSN2713-3745. S2CID261087185.지원되지 않는 변수 무시됨: |article-number= (도움말)
↑Pandey, Mohit; Fernandez, Michael; Gentile, Francesco; Isayev, Olexandr; Tropsha, Alexander; Stern, Abraham C.; Cherkasov, Artem (March 2022). 《The transformational role of GPU computing and deep learning in drug discovery》 (영어). 《Nature Machine Intelligence》4. 211–221쪽. doi:10.1038/s42256-022-00463-x. ISSN2522-5839. S2CID252081559.
↑Grossman, Gary (2020년 9월 3일). “We're entering the AI twilight zone between narrow and general AI”. 벤추어비트. 2020년 9월 4일에 원본 문서에서 보존된 문서. 2020년 9월 5일에 확인함. Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI.
12Bostrom, Nick (2017). 〈§ Preferred order of arrival〉 Reprint wi corrections 2017판 (영어). 《Superintelligence: paths, dangers, strategies》. Oxford, United Kingdom; New York, New York, USA: Oxford University Press. ISBN978-0-1996-7811-2.
12Brynjolfsson, Erik; McAfee, Andrew (2016). 《The second machine age: work, progress, and prosperity in a time of brilliant technologies》 Fir publish as a Norton paperback판. New York London: W. W. Norton & Company. ISBN978-0-393-35064-7.
↑Zhai, Xuesong; Chu, Xiaoyan; Chai, Ching Sing; Jong, Morris Siu Yung; Istenic, Andreja; Spector, Michael; Liu, Jia-Bao; Yuan, Jing; Li, Yan (2021). 《A Review of Artificial Intelligence (AI) in Education from 2010 to 2020》 (영어). 《Complexity》2021. doi:10.1155/2021/8812542. ISSN1099-0526.지원되지 않는 변수 무시됨: |article-number= (도움말)
↑Bostrom, Nick (2017). 《Superintelligence: paths, dangers, strategies》 Reprint wi corrections판. Oxford: Oxford University Press. ISBN978-0-19-873983-8.
↑Crawford, Kate (2021). 《Atlas of AI: power, politics, and the planetary costs of artificial intelligence》. New Haven: Yale University Press. ISBN978-0-300-20957-0.
Lighthill, Professor Sir James (1973), 〈Artificial Intelligence: A General Survey〉, 《Artificial Intelligence: a paper symposium》, Science Research Council
McCarthy, John (2007b). 《What is Artificial Intelligence?》. California: Stanford University. The ultimate effort is to make computer programs that can solve problems and achieve goals in the world as well as humans.
Moravec, Hans (1988), 《Mind Children》, Harvard University Press
〈Developments in Artificial Intelligence〉, 《Funding a Revolution: Government Support for Computing Research》, National Academy Press, 1999, 2008년 1월 12일에 원본 문서에서 보존된 문서, 2007년 9월 29일에 확인함
Sandberg, Anders; Boström, Nick (2008), 《Whole Brain Emulation: A Roadmap》(PDF), Technical Report #2008-3, Future of Humanity Institute, Oxford University, 2020년 3월 25일에 원본 문서(PDF)에서 보존된 문서, 2009년 4월 5일에 확인함
de Vega, Manuel; Glenberg, Arthur; Graesser, Arthur 편집 (2008), 《Symbols and Embodiment: Debates on meaning and cognition》, Oxford University Press, ISBN978-0-1992-1727-4
커키어, 케네스, "Ready for Robots? How to Think about the Future of AI", 포린 어페어스, vol. 98, no. 4 (July/August 2019), pp.192–98. 조지 다이슨, 컴퓨터 역사학자는 (이것은 "다이슨의 법칙"이라고 불릴 수 있을 것이다) 다음과 같이 썼다. "이해할 수 있을 만큼 간단한 시스템은 지능적으로 행동할 만큼 충분히 복잡하지 않을 것이고, 지능적으로 행동할 만큼 충분히 복잡한 시스템은 이해하기에는 너무 복잡할 것이다." (p.197.) 컴퓨터 과학자 알렉스 펜틀랜드는 다음과 같이 썼다. "현재 AI 기계 학습알고리즘은 본질적으로 매우 단순하고 어리석다. 작동하지만, 무차별 대입 방식으로 작동한다." (p.198.)
글릭, 제임스, "자유 의지의 운명" (케빈 J. 미첼, Free Agents: How Evolution Gave Us Free Will, 프린스턴 대학교 출판부, 2023, 333 pp. 서평), 뉴욕 리뷰 오브 북스, vol. LXXI, no. 1 (2024년 1월 18일), pp.27–28, 30. "작동성은 우리를 기계와 구별하는 것이다. 생물학적 존재에게 이성과 목적은 세상에서 행동하고 그 결과를 경험하는 데서 온다. 인공지능은 육체 없이 피, 땀, 눈물과 무관하게, 그런 기회가 없다." (p.30.)
글릭, 제임스, "기계 속 앵무새" (에밀리 M. 벤더와 알렉스 한나, The AI Con: How to Fight Big Tech's Hype and Create the Future We Want, 하퍼, 274 pp.; 제임스 보일, The Line: AI and the Future of Personhood, MIT Press, 326 pp. 서평), 뉴욕 리뷰 오브 북스, vol. LXXII, no. 12 (2025년 7월 24일), pp.43–46. "[챗봇] '글쓰기'는 밍밍하고 반복적인 특징을 가지고 있다. 질감은 평탄해지고 날카로운 모서리는 다듬어진다. 어떤 챗봇도 4월이 가장 잔인한 달이거나 안개가 작은 고양이 발처럼 온다고 말할 수 없었을 것이다 (물론 이제는 그럴 수도 있는데, 그들의 주요 기술 중 하나가 표절이기 때문이다). 그리고 인공적으로 추출된 텍스트가 틀릴 경우, 우스꽝스러울 정도로 틀릴 수 있다. 영화 팬이 구글에게 특정 배우가 히트에 출연했는지 물었을 때, 그는 다음과 같은 'AI 개요'를 받았다. '아니요, 안젤리나 졸리는 히트에 출연하지 않았습니다.'" (p.44.)
Halpern, Sue, "다가오는 기술 독재" (베리티 하딩, AI Needs You: How We Can Change AI's Future and Save Our Own, 프린스턴 대학교 출판부, 274 pp.; 게리 마커스, Taming Silicon Valley: How We Can Ensure That AI Works for Us, MIT Press, 235 pp.; 다니엘라 루스와 그레고리 몬, The Mind's Mirror: Risk and Reward in the Age of AI, 노턴, 280 pp.; 마두미타 무르지아, Code Dependent: Living in the Shadow of AI, 헨리 홀트, 311 pp. 서평), 뉴욕 리뷰 오브 북스, vol. LXXI, no. 17 (2024년 11월 7일), pp.44–46. "AI로 부자가 되기를 바라는 사람들이 우리 모두의 이익을 진심으로 생각할 것이라고 현실적으로 기대할 수 없다"고 ... [게리 마커스]는 썼다. "[기술 기업으로부터의] 선거 자금 기부에 의해 움직이는 정부가 저항할 것이라고는 기대할 수 없다." ... 마커스는 시민들이 정부와 기술 기업에 요구해야 할 사항들을 자세히 설명한다. 여기에는 AI 시스템이 어떻게 작동하는지에 대한 투명성; 개인의 데이터가 LLM을 훈련하는 데 사용될 경우 개인에 대한 보상 및 이러한 사용에 동의할 권리; 미국 통신품위법 230조를 폐지하고, 현금 벌금을 부과하며, 더 엄격한 제조물 책임법을 통과시킴으로써 기술 기업이 야기하는 피해에 대해 책임을 지게 할 수 있는 능력 등이 포함된다. ... 마커스는 또한 ... FDA, FCC 또는 FTC와 유사한 새로운 AI 전담 연방 기관이 가장 강력한 감독을 제공할 수 있다고 제안한다. ... 포덤 법학 교수 친마이 샤르마는 ... 공학자들을 위한 전문 면허 제도를 수립하여 의학 분야의 의료 면허, 업무상 과실 소송, 히포크라테스 선서와 유사하게 기능하도록 제안한다. 그는 "의사들처럼, AI 엔지니어들도 해를 끼치지 않을 것이라고 맹세한다면 어떨까?"라고 묻는다. (p.46.)
휴스-캐슬베리, 켄나, "살인 미스터리 퍼즐: 수십 년 동안 인간을 당황하게 했던 문학 퍼즐 카인의 턱뼈가 자연어 처리 알고리즘의 한계를 드러냈다", 사이언티픽 아메리칸, vol. 329, no. 4 (2023년 11월), pp.81–82. "이 살인 미스터리 경쟁은 자연어 처리 모델이 놀라운 업적을 달성할 수 있지만, 그들의 능력은 받는 문맥의 양에 의해 매우 제한된다는 것을 보여주었다. 이는 [...] 고대 언어 분석과 같은 목적으로 이들을 사용하고자 하는 연구자들에게 [어려움]을 야기할 수 있다. 어떤 경우에는 그러한 목적을 위한 훈련 데이터 역할을 할 오래 전 사라진 문명에 대한 역사적 기록이 거의 없다." (p.82.)
이머바르, 다니엘, "당신의 거짓말하는 눈: 이제 사람들은 인공지능을 사용하여 실제와 구별할 수 없는 가짜 동영상을 생성한다. 그것이 얼마나 중요한가?", 더 뉴요커, 2023년 11월 20일, pp.54–59. "만약 '딥페이크'가 실제 사람들을 속이는 인공지능을 사용하여 제작된 현실적인 동영상을 의미한다면, 그것들은 거의 존재하지 않는다. 가짜는 깊지 않고, 깊은 것은 가짜가 아니다. [...] 인공지능 생성 동영상은 일반적으로 우리 미디어에서 위조된 증거로 작동하지 않는다. 그들의 역할은 만화, 특히 음란한 만화와 더 유사하다." (p.59.)
Leffer, Lauren, "AI를 신뢰하는 위험: 과학 연구에 사용되는 기계 학습 모델을 인간화하는 것을 피해야 한다", 사이언티픽 아메리칸, vol. 330, no. 6 (2024년 6월), pp.80–81.
르포어, 질, "수다쟁이 챗봇: 기계와의 대화는 대화인가?", 더 뉴요커, 2024년 10월 7일, pp.12–16.
마커스, 게리, "인공적 자신감: 최신, 가장 흥미로운 인공 일반 지능 시스템조차도 똑같은 오래된 문제에 의해 방해받는다", 사이언티픽 아메리칸, vol. 327, no. 4 (2022년 10월), pp.42–45.
Newell, Allen; Simon, H. A. (1963), 〈GPS: A Program that Simulates Human Thought〉, Feigenbaum, E. A.; Feldman, J. (편집), 《Computers and Thought》, New York: McGraw-Hill
Omohundro, Steve (2008), 《The Nature of Self-Improving Artificial Intelligence》, presented and distributed at the 2007 Singularity Summit, San Francisco, California
프레스, 에얄, "그들의 얼굴 앞에서: 안면 인식 기술이 경찰이 모순되는 증거를 무시하도록 이끄는가?", 더 뉴요커, 2023년 11월 20일, pp.20–26.
로이바이넨, 에카, "AI의 IQ: 챗GPT는 [표준 지능] 테스트를 통과했지만, 지능이 IQ만으로는 측정될 수 없음을 보여주었다", 사이언티픽 아메리칸, vol. 329, no. 1 (2023년 7월/8월), p.7. "높은 IQ에도 불구하고 챗GPT는 실제 인간과 같은 추론이나 물리적, 사회적 세계에 대한 이해가 필요한 작업에서는 실패한다.... 챗GPT는 논리적으로 추론할 수 없었고 온라인 텍스트에서 파생된 방대한 [...] 사실 데이터베이스에 의존하려 한 것 같았다."
Scharre, Paul, "킬러 앱: AI 군비 경쟁의 진정한 위험", 포린 어페어스, vol. 98, no. 3 (2019년 5월/6월), pp.135–44. "오늘날의 AI 기술은 강력하지만 신뢰할 수 없다. 규칙 기반 시스템은 프로그래머가 예상하지 못한 상황에 대처할 수 없다. 학습 시스템은 훈련된 데이터에 의해 제한된다. AI 실패는 이미 비극을 초래했다. 자동차의 고급 자율 주행 기능은 일부 상황에서는 잘 작동하지만, 경고 없이 트럭, 콘크리트 장벽, 주차된 자동차로 돌진하기도 했다. 잘못된 상황에서 AI 시스템은 초지능에서 초바보로 순간적으로 바뀐다. 적이 AI 시스템을 조작하고 해킹하려 할 때, 위험은 훨씬 더 커진다." (p.140.)
Sutherland, J. G. (1990), “Holographic Model of Memory, Learning, and Expression”, 《International Journal of Neural Systems》1–3, 256–267쪽
빈센트, 제임스, "음탕한 로봇 아기 목소리: AI 챗봇에 대한 제임스 빈센트", 런던 리뷰 오브 북스, vol. 46, no. 19 (2024년 10월 10일), pp.29–32. "[AI 챗봇] 프로그램은 새로운 기술에 의해 가능해지지만, 의인화하려는 인간의 영원한 경향에 의존한다." (p.29.)