close
본문으로 이동

인공 일반 지능

위키백과, 우리 모두의 백과사전.
Image 비슷한 이름의 생성형 인공지능, 인공 초지능에 관해서는 해당 문서를 참고하십시오.
Image 이 문서는 인간의 지적 능력과 동일한 인공 지능에 관한 것입니다. 중국어 방 논쟁에서의 철학적 입장에 대해서는 중국어 방#강한 인공 지능 문서를 참고하십시오.

인공 일반 지능(人工一般智能, 영어: artificial general intelligence, AGI)은 사실상 모든 인지 작업에서 인간의 능력과 같거나 능가할 수 있는 인공지능의 한 유형이다.[1][2]

AGI를 넘어선 초지능 (ASI)은 모든 영역에서 최고의 인간 능력을 훨씬 능가할 것이다.[3] 역량이 잘 정의된 작업에 국한되는 약한 인공 지능 (ANI)과 달리, AGI 시스템은 지식을 일반화하고, 도메인 간에 기술을 전이하며, 작업별 재프로그래밍 없이 새로운 문제를 해결할 수 있다. 이 개념은 원칙적으로 시스템이 자율 에이전트여야 한다고 요구하지 않는다. 고도로 유능한 대형 언어 모델과 같은 정적 모델이나 구체화된 로봇 모두 인간 수준의 폭넓은 지식과 숙련도를 달성하는 한 정의를 만족할 수 있다.[4]

AGI 생성은 오픈AI,[5] 구글,[6] xAI,[7] 메타와 같은 AI 기술 기업들의 공통 목표이다.[8] 2020년 설문조사에 따르면 37개국에서 72개의 활성 AGI 연구 개발 프로젝트가 진행 중인 것으로 확인되었다.[9]

AGI는 SF (장르)미래학에서 흔한 주제이다.[10][11]

AGI가 실존적 위험을 나타내는가에 대한 논쟁이 있다.[12][13][14] 일부 AI 전문가와 업계 관계자들은 AGI로 인한 인류 멸종의 위험을 완화하는 것이 세계적인 우선순위가 되어야 한다고 밝혔다. 다른 이들은 AGI의 발전이 그러한 위험을 제기하기에는 너무 먼 단계에 있다고 생각한다.[15][16][17]

용어

[편집]

AGI는 강한 AI,[18][19] 완전 AI,[20] 인간 수준 AI,[21] 인간 수준 지능형 AI, 또는 일반 지능 행동으로도 알려져 있다.[22]

일부 학술 자료에서는 "강한 AI"라는 용어를 감각성이나 의식 (심리철학)을 경험할 컴퓨터 프로그램에 한정한다.[a] 대조적으로, 약한 인공 지능 (또는 좁은 AI)은 특정 문제를 해결할 수 있지만 일반적인 인지 능력이 부족하다.[23][19] 일부 학술 자료에서는 "약한 AI"를 의식을 경험하지 않거나 인간과 같은 의미로 마음을 가지고 있지 않은 모든 프로그램을 더 광범위하게 지칭하는 데 사용한다.[a]

관련 개념으로는 초지능 및 변혁적 AI가 있다. 초지능 (ASI)은 인간보다 훨씬 더 일반적으로 지능적인 가상의 AGI 유형이며,[24] 변혁적 AI의 개념은 AI가 농업 혁명이나 산업 혁명과 유사하게 사회에 큰 영향을 미치는 것과 관련이 있다.[25]

AGI 분류 프레임워크는 2023년 구글 딥마인드 연구원들에 의해 제안되었다. 이들은 AGI의 5가지 성능 수준을 정의한다: 초기, 유능, 전문가, 거장, 초인. 예를 들어, 유능한 AGI는 광범위한 비물리적 작업에서 숙련된 성인의 50%를 능가하는 AI로 정의되며, 초인 AGI (즉, 초지능)는 유사하게 정의되지만 100%의 임계값을 갖는다. 이들은 챗GPT 또는 LLaMA 2와 같은 대형 언어 모델을 초기 AGI (미숙한 인간과 비교 가능)의 인스턴스로 간주한다.[26] AGI의 자율성 및 관련 위험에 관해서는 도구 (인간이 전적으로 통제), 컨설턴트, 협력자, 전문가, 에이전트 (완전 자율)의 다섯 가지 수준을 정의한다.[27]

특징

[편집]

컴퓨터에 적용되는 지능에 대한 단일하고 합의된 정의는 없다. 컴퓨터 과학자 존 매카시 (컴퓨터 과학자)는 2007년에 "우리가 어떤 종류의 계산 절차를 지능적이라고 부르고 싶은지 아직 일반적으로 특징지을 수 없다"고 썼다.[28]

지능 특성

[편집]

연구자들은 일반적으로 시스템이 AGI로 간주되려면 다음 모든 것을 수행해야 한다고 생각한다.[29]

많은 학제적 접근 방식 (예: 인지 과학, 계산 지능, 의사결정)은 상상력 (새로운 정신적 이미지와 개념을 형성하는 능력)[30]자율성과 같은 추가 특성을 고려한다.[31]

이러한 기능 중 많은 부분을 보여주는 컴퓨터 기반 시스템은 존재한다 (예: 계산 창의성, 자동화된 추론, 의사결정 지원 시스템, 로봇, 진화 연산, 지능형 에이전트 참조). 현대 AI 시스템이 이러한 기능을 적절한 수준으로 갖추고 있는지에 대한 논쟁이 있다.[32]

신체적 특성

[편집]

다른 능력들은 지능형 시스템에서 바람직한 것으로 간주되는데, 이는 지능에 영향을 미치거나 그 표현에 도움이 될 수 있기 때문이다.[33]

이것은 위험을 감지하고 반응하는 능력을 포함한다.[33]

인간 수준 AGI 확인을 위한 테스트

[편집]

인간 수준 AGI를 확인하기 위한 여러 테스트가 고려되어 왔다.[34][35]

튜링 검사 (튜링)
Image
튜링 검사는 지능의 일부 증거를 제공할 수 있지만, 비인간 지능적 행동에 불이익을 주며 인공적인 어리석음을 장려할 수 있다.[36]
앨런 튜링이 1950년 논문 "Computing Machinery and Intelligence"에서 제안한 이 테스트는 인간 심사위원이 인간과 인간과 유사한 반응을 생성하도록 설계된 기계와 자연어 대화를 나누는 것이다. 기계가 상당한 비율로 자신이 인간이라고 심사위원을 설득할 수 있다면 테스트를 통과한다. 튜링은 이를 기계 지능의 실용적인 측정으로 제안했으며, 기계의 내부 작동보다는 인간과 유사한 반응을 생성하는 능력에 중점을 두었다.[37]
튜링은 이 테스트를 다음과 같이 설명했다.

이 테스트의 핵심은 기계가 질문에 답하며 사람인 척해야 하고, 그 가장이 합리적으로 설득력 있을 때만 합격할 수 있다는 것이다. 기계에 대한 전문가가 아닌 배심원 중 상당수가 그 가장에 속아 넘어가야 한다.[38]

2014년, 13세 우크라이나 소년을 모방하도록 설계된 유진 구스트만이라는 챗봇이 심사위원의 33%를 인간으로 확신시켜 튜링 테스트 이벤트를 통과했다고 보도되었다. 그러나 이 주장은 AI 연구 커뮤니티로부터 테스트의 구현과 AGI와의 관련성에 대한 상당한 회의론에 직면했다.[39][40]
2023년에는 "AI가 튜링 테스트 통과에 그 어느 때보다 가까워졌다"고 주장되었지만, 기사 저자들은 모방 (테스트 통과에 가까워지고 있는 대형 언어 모델이 기반으로 하는)이 "지능"과 동의어가 아님을 다시 강조했다. 더욱이, AI 지능과 인간 지능이 다를 수 있으므로, "튜링 테스트를 통과하는 것은 시스템이 지능적이라는 좋은 증거이지만, 통과하지 못하는 것이 시스템이 지능적이지 않다는 좋은 증거는 아니다"라고 말했다.[41]
2024년 연구에서는 GPT-4가 튜링 테스트의 무작위 통제 버전에서 54%의 시간 동안 인간으로 식별되었다고 제안했다. 이는 ELIZA와 같은 오래된 챗봇을 능가하지만 실제 인간 (67%)에는 여전히 미치지 못하는 수준이다.[42]
2025년, 카메라론 R. 존스와 벤자민 K. 버겐이 사전 등록한 3자 튜링 테스트 연구에 따르면 GPT-4.5가 5분 텍스트 대화에서 73%의 시간 동안 인간으로 판단되었는데, 이는 실제 조력자들의 인간성 비율인 67%를 능가하며, 연구자들의 테스트 통과 기준을 충족했다.[43][44]
로봇 대학생 테스트 (거첼)
기계가 대학에 입학하여 인간과 동일한 수업을 듣고 통과하며 학위를 취득한다. LLM은 이제 수업에 참석하지 않고도 대학 학위 수준의 시험을 통과할 수 있다.[45]
고용 테스트 (닐슨)
기계가 인간과 동일한 직무에서 최소한 인간만큼 경제적으로 중요한 작업을 수행한다. AI는 이제 패스트푸드 및 마케팅과 같이 다양한 직무에서 인간을 대체하고 있다.[46]
이케아 테스트 (마커스)
플랫팩 가구 테스트라고도 한다. AI가 이케아 플랫팩 제품의 부품과 설명서를 보고 로봇을 제어하여 가구를 올바르게 조립한다.[47]
커피 테스트 (워즈니악)
기계가 일반 미국 가정에 들어가 커피를 만드는 방법을 알아내야 한다: 커피 머신을 찾고, 커피를 찾고, 물을 넣고, 머그잔을 찾고, 적절한 버튼을 눌러 커피를 추출한다.[48] 피겨 AI 및 기타 로봇 기업이 개발한 로봇은 이와 같은 작업을 수행할 수 있다.
현대 튜링 테스트 (술레이만)
AI 모델에 10만 달러를 주고 100만 달러를 벌어야 한다.[49][50]
일반 비디오 게임 학습 테스트 (거첼, 바흐 외)
AI는 AGI 개발자들이 경쟁 전에 알지 못했던 새로운 게임을 포함하여 광범위한 비디오 게임을 학습하고 성공하는 능력을 보여야 한다.[51][52] 이 임계값의 중요성은 스콧 애런슨이 오픈AI에 근무하는 동안 다시 언급되었다.[53]

AI-완전 문제

[편집]

문제는 비공식적으로 "AI-완전" 또는 "AI-어려움"이라고 불리는데, 이는 특정 목적의 알고리즘으로는 해결할 수 없으며 AGI가 필요하다고 여겨지기 때문이다.[54]

많은 문제들이 해결을 위해 일반 지능이 필요하다고 추정되어 왔다. 예를 들어 컴퓨터 비전, 자연어 이해, 그리고 실제 세계 문제를 해결하는 동안 예상치 못한 상황에 대처하는 것 등이 있다.[55] 번역과 같은 특정 작업조차도 기계가 두 언어로 읽고 쓸 수 있고, 저자의 논리 (추론)를 따르며, 문맥 (지식)을 이해하고, 저자의 원래 의도 (사회 지능)를 충실히 재현해야 한다. 인간 수준의 기계 성능에 도달하려면 이러한 모든 문제들을 동시에 해결해야 한다.

그러나 이러한 작업 중 상당수는 이제 현대 대형 언어 모델에 의해 수행될 수 있다. 스탠퍼드 대학교의 2024년 AI 지수(AI index)에 따르면, AI는 독해 및 시각적 추론을 위한 많은 벤치마크에서 인간 수준의 성능에 도달했다.[56]

역사

[편집]

고전 AI

[편집]

현대 AI 연구는 1950년대 중반에 시작되었다.[57] 1세대 AI 연구자들은 인공 일반 지능이 가능하며 단 몇 십 년 안에 현실화될 것이라고 확신했다.[58] AI 선구자 허버트 사이먼은 1965년에 다음과 같이 썼다. "기계는 20년 안에 인간이 할 수 있는 어떤 작업이든 할 수 있을 것이다."[59]

그들의 예측은 스탠리 큐브릭아서 C. 클라크의 가상 캐릭터 HAL 9000에 영감을 주었는데, 이는 AI 연구자들이 2001년까지 만들 수 있다고 믿었던 것을 구현했다. AI 선구자 마빈 민스키는 당시의 합의된 예측에 따라 HAL 9000을 가능한 한 현실적으로 만들려는 프로젝트의 컨설턴트였다.[60] 그는 1967년에 "한 세대 안에... '인공지능'을 만드는 문제가 실질적으로 해결될 것"이라고 말했다.[61]

기호주의 AI 프로젝트더그 레나트Cyc 프로젝트 (1984년 시작)와 앨런 뉴얼Soar 프로젝트와 같은 여러 고전 AI 프로젝트는 AGI를 목표로 했다.

그러나 1970년대 초반, 연구자들이 프로젝트의 난이도를 크게 과소평가했다는 사실이 명백해졌다. 자금 지원 기관들은 AGI에 회의적인 시각을 가지게 되었고, 연구자들에게 유용한 "응용 AI"를 생산하라는 압력을 가했다.[b] 1980년대 초 일본의 5세대 컴퓨터 프로젝트는 AGI에 대한 관심을 다시 불러일으켰고, "자연스러운 대화"와 같은 AGI 목표를 포함한 10년 일정을 제시했다.[65] 이에 대한 대응과 전문가 시스템의 성공으로 산업계와 정부 모두 이 분야에 자금을 쏟아부었다.[63][66] 그러나 1980년대 후반 AI에 대한 신뢰는 대폭 하락했고, 5세대 컴퓨터 프로젝트의 목표는 결코 달성되지 못했다.[67] 20년 만에 두 번째로 AGI의 임박한 달성을 예측했던 AI 연구자들은 틀린 것으로 밝혀졌다. 1990년대에 이르러 AI 연구자들은 헛된 약속을 하는 것으로 명성을 얻었다. 그들은 예측을 전혀 하지 않으려 했고[c] "인간 수준" 인공지능에 대한 언급을 피했는데, 이는 "황당한 몽상가"로 낙인찍힐 것을 두려워했기 때문이다.[69]

좁은 AI 연구

[편집]

1990년대와 21세기 초, 주류 AI는 음성 인식추천 알고리즘과 같이 AI가 검증 가능한 결과와 상업적 응용을 생산할 수 있는 특정 하위 문제에 집중하여 상업적 성공과 학문적 명성을 얻었다.[70] 이러한 "응용 AI" 시스템은 이제 기술 산업 전반에 걸쳐 광범위하게 사용되고 있으며, 이러한 연구는 학계와 산업계 모두에서 막대한 자금 지원을 받고 있다. 2018년 기준, 이 분야의 개발은 신흥 트렌드로 간주되었고, 10년 이상 지나야 성숙 단계에 도달할 것으로 예상되었다.[71]

세기 전환기에 많은 주류 AI 연구자들은[72] 다양한 하위 문제를 해결하는 프로그램을 결합하여 강력한 AI를 개발할 수 있기를 희망했다. 한스 모라벡은 1988년에 다음과 같이 썼다.

나는 인공지능으로 가는 이러한 상향식 경로가 언젠가 전통적인 하향식 경로를 절반 이상 충족시켜, 추론 프로그램에서 너무나 답답하게 회피되었던 실제 세계의 능력과 상식 지식을 제공할 것이라고 확신한다. 두 노력을 결합하는 은유적인 골든 스파이크가 박히면 완전히 지능적인 기계가 탄생할 것이다.[72]

그러나 당시에도 이는 논쟁의 여지가 있었다. 예를 들어, 프린스턴 대학교의 스테판 하르나드는 1990년 기호 접지 가설에 대한 논문을 다음과 같이 결론지었다.

인지 모델링에 대한 "하향식" (기호적) 접근 방식이 "상향식" (감각적) 접근 방식과 중간 어디선가 만날 것이라는 기대가 종종 표명되었다. 이 논문의 접지 고려사항이 유효하다면, 이러한 기대는 절망적으로 모듈식이며 감각에서 기호로 가는 유일한 실행 가능한 경로는 오직 상향식뿐이다. 컴퓨터의 소프트웨어 수준과 같은 자유로운 기호 수준은 이 경로로 결코 도달할 수 없으며 (그 반대도 마찬가지), 왜 우리가 그러한 수준에 도달하려고 해야 하는지도 명확하지 않다. 왜냐하면 거기에 도달하는 것은 우리의 기호를 본질적인 의미에서 뿌리 뽑는 것 (그로 인해 우리 자신을 프로그래밍 가능한 컴퓨터의 기능적 등가물로 격하시키는 것)에 불과할 것으로 보이기 때문이다.[73]

현대 인공 일반 지능 연구

[편집]

"인공 일반 지능"이라는 용어는 1997년에 마크 구브루드(Mark Gubrud)가 완전 자동화된 군사 생산 및 작전의 함의를 논의하면서 처음 사용되었다.[74] AGI의 수학적 형식주의는 2000년에 마르쿠스 후터가 제안했다. AIXI라고 명명된 이 제안된 AGI 에이전트는 "광범위한 환경에서 목표를 만족시키는 능력"을 최대화한다.[75] 인간과 유사한 행동을 보이는 대신 수학적 지능 정의를 최대화하는 능력으로 특징지어지는 이 유형의 AGI는[76] 보편적 인공지능이라고도 불렸다.[77]

AGI라는 용어는 2002년경 셰인 레그벤 거첼에 의해 재도입되고 대중화되었다.[78] 2006년 AGI 연구 활동은 페이 왕(Pei Wang)과 벤 거첼[79]에 의해 "출판물 및 예비 결과 생산"으로 설명되었다. AGI에 대한 첫 번째 여름 학교는 2009년 중국 샤먼에서[80] 샤먼 대학교 인공 두뇌 연구소와 오픈코그에 의해 조직되었다. 첫 번째 대학 강좌는 토도르 아르나우도프(Todor Arnaudov)에 의해 불가리아 플로브디프 대학교에서 2010년[81]과 2011년[82]에 개설되었다. 매사추세츠 공과대학교 (MIT)는 2018년에 렉스 프리드먼이 조직하고 여러 초청 강사가 참여하는 AGI 강좌를 개설했다.

실현 가능성

[편집]
Image
전문가들이 인공 일반 지능을 언제쯤 예상하는지에 대한 설문조사[21]

2023년 현재 AGI의 개발과 잠재적 달성은 AI 커뮤니티 내에서 치열한 논쟁의 주제로 남아 있다. 전통적인 합의는 AGI가 먼 목표라고 여겼지만, 최근의 발전으로 일부 연구자와 업계 관계자들은 AGI의 초기 형태가 이미 존재할 수 있다고 주장한다.[83] AI 선구자 허버트 사이먼은 1965년에 "기계는 20년 안에 인간이 할 수 있는 어떤 작업이든 할 수 있을 것"이라고 추측했다. 이 예측은 실현되지 않았다. 폴 앨런 마이크로소프트 공동 창업자는 21세기에는 그러한 지능이 불가능할 것이라고 믿었는데, "예측 불가능하고 근본적으로 예측할 수 없는 돌파구"와 "인지에 대한 과학적으로 깊은 이해"가 필요하기 때문이라는 것이다.[84] 2014년 가디언에 기고한 로봇공학자 앨런 윈필드는 현대 컴퓨팅과 인간 수준 인공지능 사이의 간극이 현재의 우주 비행과 실용적인 초광속 우주 비행 사이의 간극만큼 넓다고 주장했다.[85]

또 다른 과제는 지능이 무엇을 의미하는지 정의하는 데 명확성이 부족하다는 것이다. 의식이 필요한가? 목표를 설정하고 추구하는 능력을 보여야 하는가? 모델 크기가 충분히 증가하면 지능이 나타나는 순전히 규모의 문제인가? 계획, 추론, 인과적 이해와 같은 기능이 필요한가? 지능이 뇌와 그 특정 기능들을 명시적으로 복제해야 하는가? 감정이 필요한가?[86]

대부분의 AI 연구자들은 미래에 강력한 AI를 달성할 수 있다고 믿지만, 휴버트 드라이퍼스로저 펜로즈와 같은 일부 사상가들은 강력한 AI를 달성할 가능성을 부인한다.[87][88] 존 매카시 (컴퓨터 과학자)는 인간 수준 AI가 달성될 것이라고 믿는 사람들 중 한 명이지만, 현재의 진행 수준으로는 정확한 날짜를 예측할 수 없다고 본다.[89] AGI의 실현 가능성에 대한 AI 전문가들의 견해는 변동한다. 2012년과 2013년에 실시된 4개의 여론 조사에 따르면, 전문가들 사이에서 AGI가 도래할 것이라고 50% 확신하는 시점에 대한 중앙값 추정치는 여론 조사에 따라 2040년에서 2050년 사이였고, 평균은 2081년이었다. 전문가들 중 16.5%는 90% 확신으로 동일한 질문을 받았을 때 "결코 아님"이라고 답했다.[90][91] 추가적인 AGI 진행 상황 고려사항은 위 인간 수준 AGI 확인을 위한 테스트에서 찾을 수 있다.

기계 지능 연구소의 스튜어트 암스트롱(Stuart Armstrong)과 카지 소탈라(Kaj Sotala)의 보고서에 따르면 "60년 동안 인간 수준 AI의 도래를 예측하는 데는 예측 시점으로부터 15년에서 25년 사이라는 강한 편향이 있었다". 그들은 1950년에서 2012년 사이에 인간 수준 AI가 언제 나타날지에 대한 95가지 예측을 분석했다.[92]

2023년 마이크로소프트 연구원들은 GPT-4에 대한 상세한 평가를 발표했다. 그들은 "GPT-4의 광범위하고 심층적인 능력에 비추어 볼 때, 이는 인공 일반 지능(AGI) 시스템의 초기 (아직 불완전하지만) 버전으로 합리적으로 간주될 수 있다고 믿는다"고 결론 내렸다.[93] 2023년 또 다른 연구에서는 GPT-4가 토런스 창의력 사고력 검사에서 인간의 99%를 능가한다고 보고했다.[94][95]

블레이즈 아구에라 이 아르카스피터 노빅은 2023년 "인공 일반 지능은 이미 여기에 있다"는 기사를 썼는데, 이는 파운데이션 모델이 이미 상당한 수준의 일반 지능을 달성했다고 주장하는 내용이었다. 그들은 이러한 견해에 대한 거부감이 주로 네 가지 이유에서 비롯된다고 썼다: "AGI 측정 지표에 대한 건전한 회의론", "대체 AI 이론이나 기술에 대한 이념적 고수", "인간 (또는 생물학적) 예외주의에 대한 헌신", 또는 "AGI의 경제적 함의에 대한 우려".[96]

시간 척도

[편집]
Image
AI는 다양한 언어 이해 및 시각 이해 벤치마크에서 인간을 능가했다.[97] 2023년 현재, 파운데이션 모델은 여전히 고급 추론 및 계획 능력이 부족하지만, 빠른 발전이 예상된다.[98]

인공지능의 발전은 역사적으로 급격한 발전 시기와 진전이 멈춘 것처럼 보이는 시기를 번갈아 겪었다.[87] 각 공백기는 하드웨어, 소프트웨어 또는 둘 다의 근본적인 발전으로 인해 추가 발전을 위한 공간이 마련되면서 끝났다.[87][99][100] 예를 들어, 20세기에는 딥 러닝을 구현하기에 충분한 컴퓨터 하드웨어가 없었는데, 이는 많은 수의 GPU 지원 CPU를 필요로 한다.[101]

2006년 자신의 책 서문에서[102] 거첼은 진정으로 유연한 AGI가 구축되기까지 필요한 시간을 10년에서 1세기 이상으로 추정한다고 말한다. 2007년 기준, AGI 연구 커뮤니티의 합의는 레이 커즈와일이 2005년 특이점이 온다에서[103] 논의한 타임라인 (즉, 2015년에서 2045년 사이)이 타당하다는 것이었다.[104] 주류 AI 연구자들은 이러한 빠른 발전이 있을지에 대해 광범위한 의견을 제시했다. 2012년 그러한 95가지 의견에 대한 메타 분석은 현대 및 역사적 예측 모두에서 AGI의 시작이 16~26년 이내에 발생할 것이라고 예측하는 경향을 발견했다. 이 논문은 의견을 전문가 또는 비전문가로 분류하는 방식에 대해 비판을 받았다.[105]

2012년 알렉스 크리제프스키, 일리야 수츠케버, 제프리 힌턴알렉스넷이라는 신경망을 개발했는데, 이 신경망은 이미지넷 대회에서 상위 5개 테스트 오류율 15.3%로 우승하여, 2위의 26.3% (다른 사전 정의된 분류기의 점수를 가중합한 전통적인 접근 방식)보다 훨씬 우수한 성적을 거두었다.[106] 알렉스넷은 현재의 딥 러닝 물결의 초기 개척자로 간주되었다.[106]

2017년, 펭 류(Feng Liu), 융 쉬(Yong Shi), 잉 류(Ying Liu) 연구원들은 구글 AI, 애플Siri 등 공개적으로 이용 가능하고 자유롭게 접근할 수 있는 약한 AI에 대해 지능 테스트를 실시했다. 이들 AI는 최대 47정도의 IQ 값을 기록했으며, 이는 약 6세 초등학생에 해당한다. 성인은 평균적으로 약 100에 도달한다. 비슷한 테스트가 2014년에 수행되었는데, 이때 IQ 점수는 최대 27이었다.[107][108]

2020년 오픈AI는 특정 훈련 없이도 다양한 작업을 수행할 수 있는 언어 모델인 GPT-3를 개발했다. 벤추어비트 기사의 게리 그로스만에 따르면, GPT-3가 AGI의 예시가 아니라는 합의가 있지만, 일부에서는 이를 좁은 AI 시스템으로 분류하기에는 너무 발전했다고 간주한다.[109]

같은 해 제이슨 로러(Jason Rohrer)는 자신의 GPT-3 계정을 사용하여 챗봇을 개발하고 "프로젝트 디셈버(Project December)"라는 챗봇 개발 플랫폼을 제공했다. 오픈AI는 안전 지침을 준수하기 위해 챗봇 변경을 요청했고, 로러는 프로젝트 디셈버를 GPT-3 API에서 연결 해제했다.[110]

2022년 딥마인드는 600가지 이상의 다양한 작업을 수행할 수 있는 "다목적" 시스템인 Gato를 개발했다.[111]

2023년 AI 연구자 제프리 힌턴은 다음과 같이 말했다.[112]

이것이 실제로 사람들보다 더 똑똑해질 수 있다는 생각은 [...] 소수의 사람들만 믿었다. 하지만 대부분의 사람들은 그것이 요원한 일이라고 생각했다. 나도 요원한 일이라고 생각했다. 30년에서 50년 이상 걸릴 것이라고 생각했다. 물론, 이제는 그렇게 생각하지 않는다.

그는 2024년에 인간보다 똑똑한 시스템이 5년에서 20년 이내에 나타날 수 있다고 (낮은 확신으로) 추정했으며, 그에 따른 실존적 위험을 강조했다.[113]

2023년 5월, 데미스 허사비스도 비슷하게 "지난 몇 년간의 발전은 정말 놀라웠다"며, 그 속도가 늦춰질 이유가 없다고 말하며 10년 이내, 심지어 몇 년 안에 AGI가 나타날 것이라고 예상했다.[114] 2024년 3월, 엔비디아젠슨 황 최고경영자(CEO)는 5년 안에 AI가 인간만큼 어떤 테스트든 통과할 수 있을 것이라고 예상했다.[115] 2024년 6월, 전 오픈AI 직원이었던 AI 연구자 레오폴드 아센브레너는 2027년까지 AGI가 "놀랍도록 그럴듯하다"고 추정했다.[116]

2025년 9월, 지난 15년간 과학자 및 산업 전문가들의 설문 조사를 검토한 보고서에 따르면, 대부분이 인공 일반 지능(AGI)이 2100년 이전에 도래할 것이라는 데 동의했다.[117] AIMultiple의 최신 분석에 따르면, "현재 AI 연구자들의 설문 조사는 2040년경 AGI를 예측하고 있다."[117]

전뇌 에뮬레이션

[편집]

챗GPT와 같은 트랜스포머 모델의 개발이 AGI로 가는 가장 유망한 길로 여겨지지만,[118][119] 전뇌 에뮬레이션은 대안적인 접근 방식으로 사용될 수 있다. 전뇌 시뮬레이션은 생물학적 뇌를 스캔하고 매핑하여 상세한 뇌 모델을 구축한 다음, 컴퓨터 시스템 또는 다른 전산 장치에서 이를 복사하고 시뮬레이션한다. 컴퓨터 시뮬레이션 모델은 원본과 실질적으로 동일하게 작동하도록 충분히 충실해야 한다.[120] 전뇌 에뮬레이션은 계산신경과학신경정보학에서 논의되는 뇌 시뮬레이션의 한 유형이며, 의료 연구 목적으로도 사용된다. 이는 인공지능 연구에서 강력한 AI에 대한 접근 방식으로 논의되어 왔다.[104] 필요한 상세한 이해를 제공할 수 있는 신경영상 기술은 빠르게 발전하고 있으며, 미래학자 레이 커즈와일은 책 특이점이 온다에서[103] 에뮬레이션에 필요한 컴퓨팅 능력과 비슷한 시간 척도에서 충분한 품질의 지도가 제공될 것이라고 예측한다.

초기 추정치

[편집]
Image
다양한 수준에서 인간 뇌를 에뮬레이션하는 데 필요한 처리 능력 추정치 (레이 커즈와일, 안데르스 산드베리닉 보스트롬의 자료), 그리고 TOP500에서 연도별로 매핑된 가장 빠른 슈퍼컴퓨터. 로그 스케일과 1.2년마다 계산 능력이 두 배가 된다고 가정하는 지수 추세선을 주목하라. 커즈와일은 신경 시뮬레이션에서 마음 업로드가 가능하다고 믿는 반면, 산드베리, 보스트롬 보고서는 의식 (심리철학)이 어디에서 발생하는지에 대해 덜 확신한다.[121]

낮은 수준의 뇌 시뮬레이션을 위해서는 인간의 뇌 안에 있는 엄청난 양의 시냅스를 고려할 때, 매우 강력한 컴퓨터 또는 GPU 클러스터가 필요할 것이다. 1011 (천억)개의 신경 세포 각각은 평균적으로 다른 신경 세포와 7,000개의 시냅스 연결을 가지고 있다. 3세 아동의 뇌에는 약 1015개 (1천조)의 시냅스가 있다. 이 숫자는 나이가 들면서 감소하여 성인이 되면 안정화된다. 성인의 경우 추정치는 1014개에서 5×1014개 (100조에서 500조)의 시냅스로 다양하다.[122] 신경 활동의 간단한 스위치 모델을 기반으로 한 뇌의 처리 능력 추정치는 초당 약 1014개 (100조)의 시냅스 업데이트 (SUPS)이다.[123]

1997년 커즈와일은 인간의 뇌와 동등한 하드웨어에 필요한 다양한 추정치를 조사하여 초당 1016회의 계산이라는 수치를 채택했다.[d] (비교하자면, "계산"이 현재 슈퍼컴퓨터의 성능을 평가하는 데 사용되는 측정 단위인 1개의 "부동 소수점 연산"과 동일하다고 가정하면, 1016 "계산"은 10 페타플롭스에 해당하며, 이는 2011년에 달성되었고, 10182022년에 달성되었다.) 그는 이 수치를 사용하여 당시 컴퓨터 성능의 지수적 성장이 계속된다면 필요한 하드웨어가 2015년에서 2025년 사이에 언젠가 사용 가능해질 것이라고 예측했다.

현재 연구

[편집]

EU가 자금을 지원하여 2013년부터 2023년까지 활동한 인간 뇌 프로젝트는 특히 상세하고 공개적으로 접근 가능한 인간 뇌의 지도첩을 개발했다.[126] 2023년 듀크 대학교의 연구원들은 쥐 뇌의 고해상도 스캔을 수행했다.

시뮬레이션 기반 접근 방식에 대한 비판

[편집]

커즈와일이 가정하고 현재 많은 인공 신경망 구현에서 사용되는 인공 신경 세포 모델은 생물학적 뉴런에 비해 단순하다. 뇌 시뮬레이션은 생물학적 신경 세포의 상세한 세포 행동을 포착해야 할 것이며, 이는 현재 넓은 개요로만 이해되고 있다. 신경 행동의 생물학적, 화학적, 물리적 세부 사항 (특히 분자 규모에서)을 완전히 모델링함으로써 발생하는 오버헤드는 커즈와일의 추정치보다 몇 자릿수 더 큰 계산 능력을 필요로 할 것이다. 또한, 추정치는 인지 과정에서 역할을 하는 것으로 알려진 신경교 세포를 고려하지 않는다.[127]

시뮬레이션 기반 뇌 접근 방식에 대한 근본적인 비판은 체화된 인지 이론에서 비롯된다. 이 이론은 인간의 신체화가 인간 지능의 필수적인 측면이며 의미를 근거 지우는 데 필요하다고 주장한다.[128][129] 이 이론이 옳다면, 완전히 기능하는 뇌 모델은 단순히 뉴런 이상의 것 (예: 로봇 몸체)을 포함해야 할 것이다. 거첼[104]세컨드 라이프와 같은 메타버스에서 가상 신체화를 옵션으로 제안하지만, 이것이 충분할지는 알려져 있지 않다.

철학적 관점

[편집]

철학에서 정의하는 "강한 AI"

[편집]

1980년 철학자 존 설은 그의 중국어 방 논증의 일환으로 "강한 AI"라는 용어를 만들었다.[130] 그는 인공지능에 대한 두 가지 가설 사이의 구별을 제안했다.[e]

  • 강한 AI 가설: 인공지능 시스템은 "마음"과 "의식"을 가질 수 있다.
  • 약한 AI 가설: 인공지능 시스템은 생각하는 것처럼 행동하고 마음과 의식을 가질 수 있을 뿐이다.

그는 첫 번째 것을 "강하다"고 불렀는데, 이는 더 강한 주장을 하기 때문이다. 즉, 우리가 테스트할 수 있는 능력을 넘어선 특별한 일이 기계에 일어났다고 가정한다. "약한 AI" 기계의 행동은 "강한 AI" 기계와 동일하겠지만, 후자는 주관적인 의식적 경험도 가질 것이다. 이 용법은 학술 AI 연구 및 교과서에서도 흔하다.[131]

설과 주류 AI와는 대조적으로, 레이 커즈와일과 같은 일부 미래학자들은 "강한 AI"라는 용어를 "인간 수준 인공 일반 지능"을 의미하는 데 사용한다.[103] 이는 인간 수준 AGI에 의식 (심리철학)이 필요하다고 가정하지 않는 한 설의 강한 AI와 동일하지 않다. 설과 같은 학술 철학자들은 그것이 사실이라고 믿지 않으며, 대부분의 인공지능 연구자들에게 이 질문은 논외이다.[132]

주류 AI는 프로그램이 어떻게 작동하는지에 가장 큰 관심을 둔다.[133] 러셀노빅에 따르면, "프로그램이 작동하는 한, 그것을 실제라고 부르든 시뮬레이션이라고 부르든 상관하지 않는다."[132] 프로그램이 마음을 가진 것처럼 행동할 수 있다면, 실제로 마음을 가지고 있는지 알 필요가 없다. 실제로 그것을 알 방법도 없을 것이다. AI 연구에서 설의 "약한 AI 가설"은 "인공 일반 지능이 가능하다"는 진술과 동등하다. 따라서 러셀과 노빅에 따르면, "대부분의 AI 연구자들은 약한 AI 가설을 당연하게 여기고, 강한 AI 가설에는 관심이 없다."[132] 따라서 학술 AI 연구에서 "강한 AI"와 "AGI"는 두 가지 다른 것이다.

의식 (심리철학)

[편집]

의식은 다양한 의미를 가질 수 있으며, 일부 측면은 SF (장르)인공지능 윤리에서 중요한 역할을 한다.

  • 감각성 (또는 "현상적 의식"): 인지된 것을 추론하는 능력과 달리 인지 또는 감정을 주관적으로 "느끼는" 능력. 데이비드 차머스와 같은 일부 철학자들은 "의식"이라는 용어를 현상적 의식, 즉 감각성과 거의 동일한 의미로만 사용한다.[134] 주관적 경험이 왜 그리고 어떻게 발생하는지 결정하는 것은 의식의 어려운 문제로 알려져 있다.[135] 토마스 네이글은 1974년에 의식적이라는 것은 무언가를 "느낀다"는 것이라고 설명했다. 의식적이지 않다면 아무것도 느끼지 않을 것이다. 네이글은 박쥐를 예로 든다. 우리는 "박쥐가 된다는 것은 무엇을 느끼는가?"라고 합리적으로 물을 수 있다. 그러나 우리는 "토스터가 된다는 것은 무엇을 느끼는가?"라고 묻지는 않을 것이다. 네이글은 박쥐는 의식이 있는 것처럼 보이지만 (즉, 의식을 가지고 있지만) 토스터는 그렇지 않다고 결론 내린다.[136] 2022년 구글 엔지니어는 회사의 AI 챗봇인 LaMDA가 감각성을 달성했다고 주장했지만, 이 주장은 다른 전문가들에 의해 널리 반박되었다.[137]
  • 자의식: 자신을 별개의 개체로 의식적으로 인식하는 것, 특히 자신의 생각을 의식적으로 인식하는 것. 이는 단순히 "자신의 생각의 주체"가 되는 것과는 반대이다. 운영 체제나 디버거는 "자신을 인식할 수 있지만" (즉, 다른 모든 것을 표현하는 방식과 동일하게 자신을 표현할 수 있지만) 이는 사람들이 일반적으로 "자의식"이라는 용어를 사용할 때 의미하는 바가 아니다.[f] 일부 고급 AI 모델에서는 시스템이 자체 인지 과정 및 피드백 패턴에 대한 내부 표현을 구축하며, 자체 모델링 프레임워크 내에서 '당신'과 같은 2인칭 구성을 사용하여 자신을 지칭하기도 한다.

이러한 특성에는 도덕적 차원이 있다. AI 감각성은 동물과 마찬가지로 복지 및 법적 보호 문제에 대한 우려를 불러일으킬 것이다.[138] 인지 능력과 관련된 의식의 다른 측면도 AI 권리 개념과 관련이 있다.[139] 고급 AI를 기존 법적 및 사회적 프레임워크와 통합하는 방법을 찾는 것은 신흥 문제이다.[140]

장점

[편집]

AGI는 대부분의 직업에서 생산성과 효율성을 향상시킬 수 있다. 예를 들어, 공중 보건 분야에서 AGI는 의료 연구, 특히 암 퇴치 연구를 가속화할 수 있다.[141] 노인들을 돌보고,[142] 빠르고 고품질의 의료 진단에 대한 접근성을 민주화할 수 있다. 재미있고 저렴하며 개인화된 교육을 제공할 수 있다.[142] 생성된 부가 적절하게 재분배된다면 생존을 위해 일할 필요가 없어질 수도 있다.[142][143] 이는 또한 급진적으로 자동화된 사회에서 인간의 위치에 대한 질문을 제기한다.

AGI는 또한 합리적인 결정을 내리고 재난을 예측하고 예방하는 데 도움이 될 수 있다. 또한 나노 기술이나 기후 공학과 같은 잠재적으로 재앙적인 기술의 이점을 얻으면서 관련 위험을 피하는 데도 도움이 될 수 있다.[144] 만약 AGI의 주요 목표가 인간 멸종과 같은 실존적 재난을 예방하는 것이라면 (취약한 세계 가설이 사실로 밝혀질 경우 어려울 수 있음)[145] 우리 삶의 질에 미치는 영향을 최소화하면서 위험을 drastically하게 줄이는 조치를 취할 수 있다.[144]

의학 및 의료 발전

[편집]

AGI는 의료 진단을 더 빠르고, 저렴하며, 정확하게 만들어 의료 서비스를 향상시킬 것이다. AI 기반 시스템은 환자 데이터를 분석하고 질병을 조기에 발견할 수 있다.[146] 이는 환자들이 더 빨리 진단받고 질병이 악화되기 전에 의료 서비스를 받을 수 있게 된다는 것을 의미한다. AGI 시스템은 유전학과 병력을 기반으로 맞춤형 치료 계획을 추천할 수도 있다.[147]

또한 AGI는 분자 상호 작용을 시뮬레이션하여 신약 발견을 가속화하고 암 및 알츠하이머병과 같은 질병에 대한 신약 개발 시간을 단축할 수 있다.[148] 병원에서는 AGI 기반 로봇 보조원이 수술을 돕고, 환자를 모니터링하며, 실시간 의료 지원을 제공할 수 있다. 또한 AGI 기반 간병인 및 건강 모니터링 시스템을 통해 고령 인구가 독립성을 유지하도록 돕는 노인 돌봄에도 사용될 수 있다.

AGI는 대규모 데이터셋을 평가하여 개별 환자의 필요에 맞는 맞춤형 치료 계획 개발을 지원할 수 있다. 이 접근 방식은 치료법이 환자의 고유한 병력 및 유전적 프로파일을 기반으로 최적화되도록 보장하여 결과를 개선하고 부작용을 줄인다.[149]

과학 및 기술 발전

[편집]

AGI는 과학 연구와 혁신을 위한 도구가 될 수 있다. 물리학 및 수학과 같은 분야에서 AGI는 양자 시스템 모델링, 암흑 물질 이해 또는 수학 정리 증명과 같이 막대한 계산 능력을 요구하는 복잡한 문제를 해결하는 데 도움이 될 수 있다.[150] 수십 년 동안 미해결로 남아 있던 문제들이 AGI를 통해 해결될 수 있을 것이다.

AGI는 또한 사회를 재편할 수 있는 기술적 돌파구를 이끌 수 있다. 이는 공학 설계 최적화, 새로운 재료 발견, 자동화 개선을 통해 가능하다. 예를 들어, AI는 이미 더 효율적인 재생 에너지원 개발과 제조 공급망 최적화에 중요한 역할을 하고 있다.[151] 미래의 AGI 시스템은 이러한 혁신을 더욱 발전시킬 수 있다.

교육 및 생산성 향상

[편집]

AGI는 각 학생의 강점, 약점, 관심사에 특화된 학습 프로그램을 만들어 교육을 개인화할 수 있다. 기존의 교수법과 달리 AI 기반 튜터링 시스템은 실시간으로 수업을 조절하여 학생들이 어려운 개념을 이해하고 넘어갈 수 있도록 보장할 수 있다.[152]

직장에서 AGI는 반복적인 작업을 자동화하여 근로자들이 보다 창의적이고 전략적인 역할에 집중할 수 있도록 해줄 것이다.[151] 또한 물류를 최적화하고, 사이버 보안을 강화하며, 비즈니스 운영을 간소화하여 산업 전반의 효율성을 향상시킬 수 있다. 제대로 관리된다면 AGI 기반 자동화로 생성된 부는 사람들이 생계를 위해 일할 필요를 줄일 수 있다. 일하는 것이 선택 사항이 될 수도 있다.[153]

지구촌 위기 완화

[편집]

AGI는 지구촌 위협을 예방하고 관리하는 데 중요한 역할을 할 수 있다. 실시간 데이터 분석을 통해 허리케인, 지진, 전염병을 예측하여 정부와 조직이 자연재해에 보다 효과적으로 대응할 수 있도록 도울 수 있다.[154] 위성, 센서, 역사 기록에서 얻은 방대한 데이터셋을 분석하여 AGI는 조기 경보 시스템을 개선하고, 더 빠른 재난 대응과 인명 피해 최소화를 가능하게 할 수 있다.

기후 과학 분야에서 AGI는 탄소 배출량을 줄이고, 에너지 자원을 최적화하며, 기후 변화 효과를 완화하기 위한 새로운 모델을 개발할 수 있다. 또한 기상 예측 정확도를 향상시켜 정책 입안자들이 보다 효과적인 환경 규제를 시행할 수 있도록 한다. 추가적으로 AGI는 나노 기술 및 생명 공학과 같이 상당한 위험을 수반하는 신기술을 복잡한 시스템을 분석하고 의도하지 않은 결과를 예측함으로써 규제하는 데 도움을 줄 수 있다.[150] 더 나아가 AGI는 대규모 사이버 위협을 감지하고 완화하며, 핵심 인프라를 보호하고, 디지털 전쟁을 예방함으로써 사이버 보안을 지원할 수 있다.

환경 보전 및 생물 다양성 회복

[편집]

AGI는 자연 환경을 보존하고 멸종 위기에 처한 종들을 보호하는 데 크게 기여할 수 있다. 위성 이미지, 기후 데이터, 야생 동물 패턴을 분석하여 AGI 시스템은 환경 위협을 조기에 식별하고 목표 지향적인 보전 전략을 권장할 수 있다.[155] AGI는 토지 이용을 최적화하고, 밀렵이나 삼림 벌채와 같은 불법 활동을 실시간으로 모니터링하며, 생태계를 복원하기 위한 전 세계적인 노력을 지원할 수 있다. AGI가 개발한 고급 예측 모델은 생물 다양성 손실을 되돌리고, 핵심 종의 생존을 보장하며, 생태 균형을 유지하는 데도 도움이 될 수 있다.[156]

우주 탐사 및 식민지화 강화

[편집]

AGI는 인류가 지구를 넘어 탐사하고 정착하는 능력을 혁신적으로 바꿀 수 있다. 고급 문제 해결 능력을 갖춘 AGI는 내비게이션, 자원 관리, 비상 대응을 포함한 복잡한 우주 임무를 자율적으로 관리할 수 있다. 외계 환경에 최적화된 생명 유지 시스템, 서식지, 우주선 설계를 가속화할 수 있다. 또한 AGI는 생존 시나리오를 시뮬레이션하고 인간이 새로운 세계에 적응하도록 도와 화성 같은 행성 식민지화 노력을 지원하여 행성 간 문명의 가능성을 확장할 수 있다.[157]

위험

[편집]

실존적 위험

[편집]

AGI는 "지구에서 기원한 지능형 생명체의 조기 멸종 또는 바람직한 미래 발전을 위한 잠재력의 영구적이고 급격한 파괴"를 위협하는 위험인 여러 유형의 실존적 위험을 나타낼 수 있다.[158] AGI로 인한 인류 멸종의 위험은 많은 논쟁의 주제였지만, AGI의 개발이 영구적으로 결함 있는 미래로 이어질 가능성도 있다. 특히 AGI는 이를 개발하는 사람들의 가치관을 전파하고 보존하는 데 사용될 수 있다. 만약 인류가 과거 노예 제도와 유사한 도덕적 맹점을 여전히 가지고 있다면, AGI는 이를 돌이킬 수 없게 고착시켜 도덕적 진보를 방해할 수 있다.[159] 더욱이, AGI는 대중감시와 세뇌를 용이하게 하여 확고한 억압적인 전 세계적 전체주의 정권을 만들 수 있다.[160][161] 기계 자체에도 위험이 있다. 미래에 감각을 갖거나 도덕적 고려를 할 가치가 있는 기계가 대량 생산된다면, 그들의 복지와 이익을 무기한으로 무시하는 문명적 경로에 참여하는 것은 실존적 재앙이 될 수 있다.[162][163] AGI가 인류의 미래를 얼마나 향상시키고 다른 실존적 위험을 줄이는 데 도움이 될 수 있는지를 고려할 때, 토비 오드는 이러한 실존적 위험을 "적절한 주의를 기울여 진행해야 할 논거"이지 "AI를 포기해야 할 논거"는 아니라고 말한다.[160]

통제 상실 및 인류 멸종의 위험

[편집]

AI가 인간에게 실존적 위험을 제기하며, 이 위험에 더 많은 주의를 기울여야 한다는 주장은 논란의 여지가 있지만, 2023년 일론 머스크, 빌 게이츠, 제프리 힌턴, 요슈아 벤지오, 데미스 허사비스, 샘 올트먼과 같은 많은 저명 인사, AI 연구자 및 AI 기업 CEO들이 지지했다.[164][165]

2014년 스티븐 호킹은 광범위한 무관심을 비판했다.

따라서, 헤아릴 수 없는 이점과 위험의 가능한 미래에 직면하여, 전문가들은 최상의 결과를 보장하기 위해 가능한 모든 것을 하고 있는 것이 확실하지 않은가? 틀렸다. 만약 우월한 외계 문명이 우리에게 '몇 십 년 안에 도착할게요'라는 메시지를 보냈다면, 우리는 '알겠습니다, 도착하면 전화하세요. 불은 켜 둘게요'라고만 답할 것인가? 아마 그렇지 않을 것이다. 하지만 이것이 AI에서 벌어지고 있는 일과 거의 같다.[166]

인류의 잠재적 운명은 때때로 인간 활동으로 위협받는 고릴라의 운명과 비교되어 왔다. 이 비교는 더 큰 지능이 인류가 고릴라를 지배하게 했고, 고릴라는 예상할 수 없었던 방식으로 취약해졌다는 것을 시사한다. 결과적으로 고릴라는 악의가 아니라 단순히 인간 활동의 부수적인 피해로 멸종 위기에 처한 종이 되었다.[167]

회의론자 얀 르쿤은 AGI가 인류를 지배하려는 욕망을 갖지 않을 것이며, 우리가 그들을 의인화하고 인간처럼 그들의 의도를 해석하지 않도록 주의해야 한다고 생각한다. 그는 사람들이 "초지능 기계를 설계할 만큼 충분히 똑똑하지 못하면서도 안전 장치 없는 바보 같은 목표를 부여할 정도로 터무니없이 어리석을" 일은 없을 것이라고 말했다.[168] 반면에, 도구적 수렴 개념은 거의 어떤 목표를 가지고 있든 지능형 에이전트는 이러한 목표를 달성하기 위한 중간 단계로서 생존하고 더 많은 힘을 얻으려는 이유를 가질 것이라고 제안한다. 그리고 이는 감정을 가질 필요가 없다.[169]

실존적 위험에 대해 우려하는 많은 학자들은 "통제 문제" 해결을 위한 더 많은 연구를 옹호하여 다음 질문에 답하고자 한다. 즉, 프로그래머는 재귀적으로 개선되는 AI가 초지능에 도달한 후에도 친근하고 파괴적이지 않은 방식으로 계속 작동할 확률을 최대화하기 위해 어떤 종류의 안전 장치, 알고리즘 또는 아키텍처를 구현할 수 있는가?[170][171] 통제 문제 해결은 인공지능 군비 경쟁 (경쟁사보다 먼저 제품을 출시하기 위해 안전 예방 조치를 최저 수준으로 떨어뜨릴 수 있음)[172]과 무기 시스템에 AI를 사용하는 것 때문에 복잡해진다.[173]

AI가 실존적 위험을 초래할 수 있다는 주장은 반대자들도 있다. 회의론자들은 보통 AGI가 단기적으로는 나타날 가능성이 낮거나, AGI에 대한 우려가 현재 AI와 관련된 다른 문제들로부터 주의를 분산시킨다고 말한다.[174]구글 사기 단속 책임자 슈만 고제마줌더는 기술 산업 외부의 많은 사람들이 기존 챗봇과 LLM을 이미 AGI처럼 인식하고 있어 더 큰 오해와 공포를 초래한다고 본다.[175]

회의론자들은 때때로 이 주장이 비합리적인 전능한 신에 대한 믿음을 비합리적인 초지능 가능성에 대한 믿음으로 대체하는 암호-종교적이라고 비난한다.[176] 일부 연구자들은 특정 AI 그룹(오픈AI, 앤트로픽, 딥마인드, 컨젝처 등)의 AI 실존적 위험에 대한 홍보 캠페인이 규제 포획을 시도하고 제품에 대한 관심을 부풀리려는 시도일 수 있다고 믿는다.[177][178]

2023년, 구글 딥마인드, 오픈AI, 앤트로픽의 CEO들은 다른 업계 리더 및 연구자들과 함께 "AI로 인한 멸종 위험 완화는 팬데믹 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 세계적인 우선순위가 되어야 한다"고 주장하는 공동 성명을 발표했다.[165]

대량 실업

[편집]

오픈AI 연구원들은 2023년에 "미국 노동력의 80%가 LLM 도입으로 인해 작업의 최소 10%에 영향을 받을 수 있으며, 약 19%의 노동자는 작업의 최소 50%에 영향을 받을 수 있다"고 추정했다.[179][180] 그들은 수학자, 회계사, 웹 디자이너와 같은 화이트칼라 노동자가 가장 많이 노출될 것으로 본다.[180] AGI는 더 나은 자율성, 의사 결정 능력, 다른 컴퓨터 도구와의 인터페이스 능력, 그리고 로봇화된 신체를 제어하는 능력을 가질 수 있다. 최고의 AI 기업 내부자들 사이에서 일반적인 믿음은 대부분의 노동자들이 AGI로 인해 기술적 실업에 직면하게 될 것이며, 이는 화이트칼라 직업부터 시작하여 로봇 공학이 발전함에 따라 블루 칼라 직업으로 확대될 것이라는 것이다.[181] 이 아이디어를 비판하는 사람들은 AGI가 인간을 대체하기보다는 보완할 것이며, 자동화는 단기적으로는 일자리를 대체하지만 장기적으로는 그렇지 않다고 주장한다.[182][183][184]

스티븐 호킹에 따르면, 자동화가 삶의 질에 미치는 결과는 부의 재분배 방식에 달려 있을 것이다.[143]

기계로 생산된 부가 공유되면 모든 사람이 호화로운 여가를 누릴 수 있거나, 기계 소유자들이 부의 재분배에 반대하는 로비에 성공하면 대부분의 사람들이 비참하게 가난해질 수 있다. 지금까지 추세는 두 번째 선택지로 향하는 것으로 보인다. 기술이 불평등을 끊임없이 증가시키고 있다.

엘론 머스크는 2021년에 사회의 자동화로 인해 정부가 보편적 기본소득 (UBI)을 채택해야 할 것이라고 주장했다.[185] 힌턴도 2025년에 영국 정부에 AI로 인한 실업에 대한 대응으로 UBI를 채택할 것을 권고했다.[186] 2023년 힌턴은 "나는 사회주의자이다 [...] 나는 미디어와 '계산 수단'의 사적 소유가 좋지 않다고 생각한다"고 말했다.[187]

같이 보기

[편집]

내용주

[편집]
  1. 1 2 See below for the origin of the term "strong AI", and see the academic definition of "강한 AI" and weak AI in the article 중국어 방.
  2. The 라이트힐 보고서 specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.[62] In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research".[63][64]
  3. As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."[68]
  4. In "Mind Children"[124] 1015 cps is used. More recently, in 1997,[125] Moravec argued for 108 MIPS which would roughly correspond to 1014 cps. Moravec talks in terms of MIPS, not "cps", which is a non-standard term Kurzweil introduced.
  5. As defined in a standard AI textbook: "The assertion that machines could act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."[123]
  6. 앨런 튜링 made this point in 1950.[37]

각주

[편집]
  1. Goertzel, Ben (2014). Artificial General Intelligence: Concept, State of the Art, and Future Prospects. Journal of Artificial General Intelligence 5. 1–48쪽. Bibcode:2014JAGI....5....1G. doi:10.2478/jagi-2014-0001.
  2. Lake, Brenden; Ullman, Tom; Tenenbaum, Joshua; Gershman, Samuel (2017). Building machines that learn and think like people. Behavioral and Brain Sciences 40. arXiv:1604.00289. doi:10.1017/S0140525X16001837. PMID 27881212.
  3. Bostrom, Nick (2014). 초지능: 경로, 위험, 전략. Oxford University Press.
  4. Legg, Shane (2023). Why AGI Might Not Need Agency. Proceedings of the Conference on Artificial General Intelligence.
  5. OpenAI Charter (미국 영어). OpenAI. 2023년 4월 6일에 확인함. Our mission is to ensure that artificial general intelligence benefits all of humanity.
  6. Grant, Nico (2025년 2월 27일). Google's Sergey Brin Asks Workers to Spend More Time In the Office (미국 영어). The New York Times. ISSN 0362-4331. 2025년 3월 1일에 확인함.
  7. Newsham, Jack. Tesla said xAI stands for "eXploratory Artificial Intelligence." It's not clear where it got that. (미국 영어). Business Insider. 2025년 9월 20일에 확인함.
  8. Heath, Alex (2024년 1월 18일). Mark Zuckerberg's new goal is creating artificial general intelligence (영어). The Verge. 2024년 6월 13일에 확인함. Our vision is to build AI that is better than human-level at all of the human senses.
  9. Baum, Seth D. (2020). A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (PDF) (보고서). Global Catastrophic Risk Institute. 2024년 11월 28일에 확인함. 72 AGI R&D projects were identified as being active in 2020.
  10. Butler, Octavia E. (1993). Parable of the Sower. Grand Central Publishing. ISBN 978-0-4466-7550-5. All that you touch you change. All that you change changes you.
  11. Vinge, Vernor (1992). A Fire Upon the Deep. Tor Books. ISBN 978-0-8125-1528-2. The Singularity is coming.
  12. Morozov, Evgeny (2023년 6월 30일). The True Threat of Artificial Intelligence. The New York Times. The real threat is not AI itself but the way we deploy it.
  13. Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks (오스트레일리아 영어). ABC News. 2023년 3월 23일. 2023년 4월 6일에 확인함. AGI could pose existential risks to humanity.
  14. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. ISBN 978-0-1996-7811-2. The first superintelligence will be the last invention that humanity needs to make.
  15. Roose, Kevin (2023년 5월 30일). A.I. Poses 'Risk of Extinction', Industry Leaders Warn. The New York Times. Mitigating the risk of extinction from AI should be a global priority.
  16. Mitchell, Melanie (2023년 5월 30일). Are AI's Doomsday Scenarios Worth Taking Seriously?. The New York Times. We are far from creating machines that can outthink us in general ways.
  17. LeCun, Yann (June 2023). AGI does not present an existential risk. Medium. There is no reason to fear AI as an existential threat.
  18. Kurzweil 2005, 260쪽.
  19. 1 2 Kurzweil, Ray (2005년 8월 5일), Long Live AI, 포브스, 2005년 8월 14일에 원본 문서에서 보존된 문서: 커즈와일은 강한 AI를 "인간 지능의 모든 범위를 갖춘 기계 지능"으로 설명한다.
  20. The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013. 2014년 2월 26일에 원본 문서에서 보존된 문서. 2014년 2월 22일에 확인함.
  21. 1 2 Roser, Max (2023년 2월 7일). AI timelines: What do experts in artificial intelligence expect for the future?. Our World in Data. 2023년 4월 6일에 확인함.
  22. Newell & Simon 1976, This is the term they use for "human-level" intelligence in the 물리 기호 체계 hypothesis.
  23. The Open University on Strong and Weak AI. 2009년 9월 25일에 원본 문서에서 보존된 문서. 2007년 10월 8일에 확인함.
  24. What is artificial superintelligence (ASI)? | Definition from TechTarget (영어). Enterprise AI. 2023년 10월 8일에 확인함.
  25. Roser, Max (2022년 12월 15일). Artificial intelligence is transforming our world – it is on all of us to make sure that it goes well. Our World in Data. 2023년 10월 8일에 확인함.
  26. Google DeepMind's Six Levels of AGI (영어). aibusiness.com. 2025년 7월 20일에 확인함.
  27. Dickson, Ben (2023년 11월 16일). Here is how far we are to achieving AGI, according to DeepMind. VentureBeat.
  28. McCarthy, John (2007a). Basic Questions. 스탠퍼드 대학교. 2007년 10월 26일에 원본 문서에서 보존된 문서. 2007년 12월 6일에 확인함.
  29. This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  30. Johnson 1987
  31. de Charms, R. (1968). Personal causation. New York: Academic Press.
  32. Van Eyghen, Hans (2025). AI Algorithms as (Un)virtuous Knowers. Discover Artificial Intelligence 5. doi:10.1007/s44163-024-00219-z.
  33. 1 2 Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-2621-6239-3
  34. Muehlhauser, Luke (2013년 8월 11일). What is AGI?. Machine Intelligence Research Institute. 2014년 4월 25일에 원본 문서에서 보존된 문서. 2014년 5월 1일에 확인함.
  35. What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence (미국 영어). Talky Blog. 2019년 7월 13일. 2019년 7월 17일에 원본 문서에서 보존된 문서. 2019년 7월 17일에 확인함.
  36. Batson, Joshua. Forget the Turing Test: Here's How We Could Actually Measure AI (미국 영어). Wired. ISSN 1059-1028. 2025년 3월 22일에 확인함.
  37. 1 2 Turing 1950.
  38. Turing, Alan (2004). B. Jack Copeland (편집). Can Automatic Calculating Machines Be Said To Think? (1957). Oxford: Oxford University Press. 487–506쪽. ISBN 978-0-1982-5079-1.
  39. Eugene Goostman is a real boy – the Turing Test says so (영국 영어). The Guardian. 2014년 6월 9일. ISSN 0261-3077. 2024년 3월 3일에 확인함.
  40. Scientists dispute whether computer 'Eugene Goostman' passed Turing test. BBC News. 2014년 6월 9일. 2024년 3월 3일에 확인함.
  41. Kirk-Giannini, Cameron Domenico; Goldstein, Simon (2023년 10월 16일). AI is closer than ever to passing the Turing test for 'intelligence'. What happens when it does? (미국 영어). The Conversation. 2024년 9월 22일에 확인함.
  42. Jones, Cameron R.; Bergen, Benjamin K. (2024년 5월 9일). People cannot distinguish GPT-4 from a human in a Turing test. arXiv:2405.08007 [cs.HC].
  43. Jones, Cameron R.; Bergen, Benjamin K. (2025년 3월 31일). Large Language Models Pass the Turing Test. arXiv:2503.23674 [cs.CL].
  44. AI model passes Turing Test better than a human. The Independent. 2025년 4월 9일. 2025년 4월 18일에 확인함.
  45. Varanasi, Lakshmi (2023년 3월 21일). AI models like ChatGPT and GPT-4 are acing everything from the bar exam to AP Biology. Here's a list of difficult exams both AI versions have passed.. 비즈니스 인사이더. 2023년 5월 30일에 확인함.
  46. Naysmith, Caleb (2023년 2월 7일). 6 Jobs Artificial Intelligence Is Already Replacing and How Investors Can Capitalize on It. 2023년 5월 30일에 확인함.
  47. Turk, Victoria (2015년 1월 28일). The Plan to Replace the Turing Test with a 'Turing Olympics' (영어). Vice. 2024년 3월 3일에 확인함.
  48. Gopani, Avi (2022년 5월 25일). Turing Test is unreliable. The Winograd Schema is obsolete. Coffee is the answer. (미국 영어). Analytics India Magazine. 2024년 3월 3일에 확인함.
  49. Bhaimiya, Sawdah (2023년 6월 20일). DeepMind's co-founder suggested testing an AI chatbot's ability to turn $100,000 into $1 million to measure human-like intelligence (미국 영어). Business Insider. 2024년 3월 3일에 확인함.
  50. Suleyman, Mustafa (2023년 7월 14일). Mustafa Suleyman: My new Turing test would see if AI can make $1 million (영어). MIT Technology Review. 2024년 3월 3일에 확인함.
  51. Goertzel, Ben; Bach, Joscha 외 (10 co-authors) (2012년 3월 1일). Mapping the Landscape of Human-Level Artificial General Intelligence. AI Magazine 33. 33쪽. doi:10.1609/aimag.v33i1.2322. ISSN 0738-4602. 2025년 10월 19일에 확인함.
  52. Mikhaylovskiy, Nikolay. How do you test the strength of AI? (PDF). 4쪽. 2025년 10월 19일에 확인함. The Goertzel Tests ... Learning to play an arbitrary video game based on experience only, or based on experience plus reading instructions
  53. Aaronson, Scott (2024년 2월 12일). The Problem of Human Specialness in the Age of AI. Shtetl-Optimized. 2025년 10월 19일에 확인함. Given any game or contest with suitably objective rules, which wasn’t specifically constructed to differentiate humans from machines, and on which an AI can be given suitably many examples of play, it’s only a matter of years before not merely any AI, but AI on the current paradigm (!), matches or beats the best human performance.
  54. Shapiro, Stuart C. (1992). Artificial Intelligence (PDF) Seco판. Stuart C. Shapiro (편집). Encyclopedia of Artificial Intelligence. New York: John Wiley. 54–57쪽. 2016년 2월 1일에 원본 문서 (PDF)에서 보존된 문서. (Section 4 is on "AI-Complete Tasks".)
  55. Yampolskiy, Roman V. (2012). Xin-She Yang (편집). Turing Test as a Defining Feature of AI-Completeness (PDF). Artificial Intelligence, Evolutionary Computation and Metaheuristics. 3–17쪽. 2013년 5월 22일에 원본 문서 (PDF)에서 보존된 문서.
  56. AI Index: State of AI in 13 Charts (영어). Stanford University Human-Centered Artificial Intelligence. 2024년 4월 15일. 2024년 5월 27일에 확인함.
  57. Crevier 1993, 48–50쪽
  58. Kaplan, Andreas (2022). Artificial Intelligence, Business and Civilization – Our Fate Made in Machines. 2022년 5월 6일에 원본 문서에서 보존된 문서. 2022년 3월 12일에 확인함.
  59. Simon 1965, 96쪽 quoted in Crevier 1993, 109쪽
  60. Scientist on the Set: An Interview with Marvin Minsky. 2012년 7월 16일에 원본 문서에서 보존된 문서. 2008년 4월 5일에 확인함.
  61. Marvin Minsky to Darrach (1970), quoted in Crevier (1993, 109쪽).
  62. Lighthill 1973; Howe 1994
  63. 1 2 National Research Council 1999, "Shift to Applied Research Increases Investment".
  64. Crevier 1993, 115–117쪽; Russell & Norvig 2003, 21–22쪽.
  65. Crevier 1993, 211쪽, Russell & Norvig 2003, 24쪽 and see also Feigenbaum & McCorduck 1983
  66. Crevier 1993, 161–162, 197–203, 240쪽; Russell & Norvig 2003, 25쪽.
  67. Crevier 1993, 209–212쪽
  68. McCarthy, John (2000). Reply to Lighthill. Stanford University. 2008년 9월 30일에 원본 문서에서 보존된 문서. 2007년 9월 29일에 확인함.
  69. Markoff, John (2005년 10월 14일). Behind Artificial Intelligence, a Squadron of Bright Real People. The New York Times. 2023년 2월 2일에 원본 문서에서 보존된 문서. 2017년 2월 18일에 확인함. At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers.
  70. Russell & Norvig 2003, 25–26쪽
  71. Trends in the Emerging Tech Hype Cycle. Gartner Reports. 2019년 5월 22일에 원본 문서에서 보존된 문서. 2019년 5월 7일에 확인함.
  72. 1 2 Moravec 1988, 20쪽
  73. Harnad, S. (1990). The Symbol Grounding Problem. Physica D 42. 335–346쪽. arXiv:cs/9906002. Bibcode:1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. S2CID 3204300.
  74. Gubrud 1997
  75. Hutter, Marcus (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN 978-3-5402-6877-2. S2CID 33352850. 2022년 7월 19일에 원본 문서에서 보존된 문서. 2022년 7월 19일에 확인함.
  76. Legg, Shane (2008). Machine Super Intelligence (PDF) (학위논문). University of Lugano. 2022년 6월 15일에 원본 문서 (PDF)에서 보존된 문서. 2022년 7월 19일에 확인함.
  77. Goertzel, Ben (2014). Artificial General Intelligence. Lecture Notes in Computer Science 8598. Journal of Artificial General Intelligence. doi:10.1007/978-3-319-09274-4. ISBN 978-3-3190-9273-7. S2CID 8387410.
  78. Who coined the term "AGI"? (미국 영어). goertzel.org. 2018년 12월 28일에 원본 문서에서 보존된 문서. 2018년 12월 28일에 확인함., via Life 3.0: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'
  79. Wang & Goertzel 2007
  80. First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009. 2020년 9월 28일에 원본 문서에서 보존된 문서. 2020년 5월 11일에 확인함.
  81. Избираеми дисциплини 2009/2010 – пролетен триместър [Elective courses 2009/2010 – spring trimester] (불가리아어). Факултет по математика и информатика [Faculty of Mathematics and Informatics]. 2020년 7월 26일에 원본 문서에서 보존된 문서. 2020년 5월 11일에 확인함.
  82. Избираеми дисциплини 2010/2011 – зимен триместър [Elective courses 2010/2011 – winter trimester] (불가리아어). Факултет по математика и информатика [Faculty of Mathematics and Informatics]. 2020년 7월 26일에 원본 문서에서 보존된 문서. 2020년 5월 11일에 확인함.
  83. Microsoft Researchers Claim GPT-4 Is Showing "Sparks" of AGI. Futurism. 2023년 3월 23일. 2023년 12월 13일에 확인함.
  84. Allen, Paul; Greaves, Mark (2011년 10월 12일). The Singularity Isn't Near. MIT 테크놀로지 리뷰. 2014년 9월 17일에 확인함.
  85. Winfield, Alan. Artificial intelligence will not turn into a Frankenstein's monster. 가디언. 2014년 9월 17일에 원본 문서에서 보존된 문서. 2014년 9월 17일에 확인함.
  86. Deane, George (2022). Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence. Artificial Life 28. 289–309쪽. doi:10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. S2CID 251069071.
  87. 1 2 3 Clocksin 2003.
  88. Fjelland, Ragnar (2020년 6월 17일). Why general artificial intelligence will not be realized (영어). Humanities and Social Sciences Communications 7. 1–9쪽. doi:10.1057/s41599-020-0494-4. hdl:11250/2726984. ISSN 2662-9992. S2CID 219710554.
  89. McCarthy 2007b.
  90. Khatchadourian, Raffi (2015년 11월 23일). The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?. 더 뉴요커. 2016년 1월 28일에 원본 문서에서 보존된 문서. 2016년 2월 7일에 확인함.
  91. Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  92. Armstrong, Stuart, and Kaj Sotala. 2012. "How We're Predicting AI—or Failing To." In Beyond AI: Artificial Dreams, edited by Jan Romportl, Pavel Ircing, Eva Žáčková, Michal Polák and Radek Schuster, pp. 52–75. Plzeň: University of West Bohemia.
  93. Microsoft Now Claims GPT-4 Shows 'Sparks' of General Intelligence. 2023년 3월 24일.
  94. Shimek, Cary (2023년 7월 6일). AI Outperforms Humans in Creativity Test. Neuroscience News. 2023년 10월 20일에 확인함.
  95. Guzik, Erik E.; Byrge, Christian; Gilde, Christian (2023년 12월 1일). The originality of machines: AI takes the Torrance Test. Journal of Creativity 33. doi:10.1016/j.yjoc.2023.100065. ISSN 2713-3745. S2CID 261087185.
  96. Arcas, Blaise Agüera y (2023년 10월 10일). Artificial General Intelligence Is Already Here (미국 영어). Noema.
  97. AI Index: State of AI in 13 Charts (영어). hai.stanford.edu. 2024년 4월 15일. 2024년 6월 7일에 확인함.
  98. Next-Gen AI: OpenAI and Meta's Leap Towards Reasoning Machines. Unite.ai. 2024년 4월 19일. 2024년 6월 7일에 확인함.
  99. James, Alex P. (2022). The Why, What, and How of Artificial General Intelligence Chip Development. IEEE Transactions on Cognitive and Developmental Systems 14. 333–347쪽. arXiv:2012.06338. Bibcode:2022ITCDS..14..333J. doi:10.1109/TCDS.2021.3069871. ISSN 2379-8920. S2CID 228376556.
  100. Pei, Jing; Deng, Lei; Song, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; He, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). Towards artificial general intelligence with hybrid Tianjic chip architecture (영어). Nature 572. 106–111쪽. Bibcode:2019Natur.572..106P. doi:10.1038/s41586-019-1424-8. ISSN 1476-4687. PMID 31367028. S2CID 199056116. 2022년 8월 29일에 원본 문서에서 보존된 문서. 2022년 8월 29일에 확인함.
  101. Pandey, Mohit; Fernandez, Michael; Gentile, Francesco; Isayev, Olexandr; Tropsha, Alexander; Stern, Abraham C.; Cherkasov, Artem (March 2022). The transformational role of GPU computing and deep learning in drug discovery (영어). Nature Machine Intelligence 4. 211–221쪽. doi:10.1038/s42256-022-00463-x. ISSN 2522-5839. S2CID 252081559.
  102. Goertzel & Pennachin 2006.
  103. 1 2 3 (Kurzweil 2005, 260쪽)
  104. 1 2 3 Goertzel 2007.
  105. Grace, Katja (2016). Error in Armstrong and Sotala 2012 (blog). AI Impacts. 2020년 12월 4일에 원본 문서에서 보존된 문서. 2020년 8월 24일에 확인함.
  106. 1 2 Butz, Martin V. (2021년 3월 1일). Towards Strong AI (영어). KI – Künstliche Intelligenz 35. 91–101쪽. doi:10.1007/s13218-021-00705-x. ISSN 1610-1987. S2CID 256065190.
  107. Liu, Feng; Shi, Yong; Liu, Ying (2017). Intelligence Quotient and Intelligence Grade of Artificial Intelligence. Annals of Data Science 4. 179–191쪽. arXiv:1709.10242. doi:10.1007/s40745-017-0109-0. S2CID 37900130.
  108. Brien, Jörn (2017년 10월 5일). Google-KI doppelt so schlau wie Siri [Google AI is twice as smart as Siri – but a six-year-old beats both] (독일어). 2019년 1월 3일에 원본 문서에서 보존된 문서. 2019년 1월 2일에 확인함.
  109. Grossman, Gary (2020년 9월 3일). We're entering the AI twilight zone between narrow and general AI. 벤추어비트. 2020년 9월 4일에 원본 문서에서 보존된 문서. 2020년 9월 5일에 확인함. Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI.
  110. Quach, Katyanna. A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down. The Register. 2021년 10월 16일에 원본 문서에서 보존된 문서. 2021년 10월 16일에 확인함.
  111. Wiggers, Kyle (2022년 5월 13일), DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots, 테크크런치, 2022년 6월 16일에 원본 문서에서 보존된 문서, 2022년 6월 12일에 확인함
  112. Metz, Cade (2023년 5월 1일). 'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead (미국 영어). The New York Times. ISSN 0362-4331. 2023년 6월 7일에 확인함.
  113. 'Godfather of AI' shortens odds of the technology wiping out humanity over next 30 years. The Guardian. 2024년 12월 27일. 2025년 4월 18일에 확인함.
  114. Bove, Tristan. A.I. could rival human intelligence in 'just a few years,' says CEO of Google's main A.I. research lab (영어). Fortune. 2024년 9월 4일에 확인함.
  115. Nellis, Stephen (2024년 3월 2일). Nvidia CEO says AI could pass human tests in five years. Reuters.
  116. Aschenbrenner, Leopold. SITUATIONAL AWARENESS, The Decade Ahead.
  117. 1 2 Orf, Darren (October 2025). Humanity May Achieve the Singularity Within the Next 3 Months, Scientists Suggest. www.msn.com. Popular Mechanics. 2025년 10월 2일에 확인함.
  118. Sullivan, Mark (2023년 10월 18일). Why everyone seems to disagree on how to define Artificial General Intelligence. Fast Company.
  119. Nosta, John (2024년 1월 5일). The Accelerating Path to Artificial General Intelligence (영어). Psychology Today. 2024년 3월 30일에 확인함.
  120. Hickey, Alex. Whole Brain Emulation: A Giant Step for Neuroscience (미국 영어). Tech Brew. 2023년 11월 8일에 확인함.
  121. Sandberg & Boström 2008.
  122. Drachman 2005.
  123. 1 2 Russell & Norvig 2003.
  124. Moravec 1988, 61쪽.
  125. Moravec 1998.
  126. Holmgaard Mersh, Amalie (2023년 9월 15일). Decade-long European research project maps the human brain. euractiv.
  127. Swaminathan, Nikhil (Jan–Feb 2011). Glia—the other brain cells. Discover. 2014년 2월 8일에 원본 문서에서 보존된 문서. 2014년 1월 24일에 확인함.
  128. de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
  129. Thornton, Angela (2023년 6월 26일). How uploading our minds to a computer might become possible (미국 영어). The Conversation. 2023년 11월 8일에 확인함.
  130. Searle 1980
  131. For example:
  132. 1 2 3 Russell & Norvig 2003, 947쪽.
  133. Though see 설명가능 인공지능 for curiosity by the field about why a program behaves the way it does.
  134. Chalmers, David J. (2023년 8월 9일). Could a Large Language Model Be Conscious?. Boston Review.
  135. Seth, Anil. Consciousness (미국 영어). New Scientist. 2024년 9월 5일에 확인함.
  136. Nagel 1974.
  137. The Google engineer who thinks the company's AI has come to life. The Washington Post. 2022년 6월 11일. 2023년 6월 12일에 확인함.
  138. Kateman, Brian (2023년 7월 24일). AI Should Be Terrified of Humans (영어). Time. 2023년 7월 27일에 원본 문서에서 보존된 문서. 2024년 9월 5일에 확인함.
  139. Nosta, John (2023년 12월 18일). Should Artificial Intelligence Have Rights? (미국 영어). Psychology Today. 2024년 9월 5일에 확인함.
  140. Akst, Daniel (2023년 4월 10일). Should Robots With Artificial Intelligence Have Moral or Legal Rights?. The Wall Street Journal.
  141. How we can Benefit from Advancing Artificial General Intelligence (AGI) – Unite.AI. www.unite.ai. 2020년 4월 7일. 2023년 6월 7일에 확인함.
  142. 1 2 3 Talty, Jules; Julien, Stephan. What Will Our Society Look Like When Artificial Intelligence Is Everywhere? (미국 영어). Smithsonian Magazine. 2023년 6월 7일에 확인함.
  143. 1 2 Stevenson, Matt (2015년 10월 8일). Answers to Stephen Hawking's AMA are Here! (미국 영어). Wired. ISSN 1059-1028. 2023년 6월 8일에 확인함.
  144. 1 2 Bostrom, Nick (2017). § Preferred order of arrival Reprint wi corrections 2017판 (영어). Superintelligence: paths, dangers, strategies. Oxford, United Kingdom; New York, New York, USA: Oxford University Press. ISBN 978-0-1996-7811-2.
  145. Piper, Kelsey (2018년 11월 19일). How technological progress is making it likelier than ever that humans will destroy ourselves (영어). Vox. 2023년 6월 8일에 확인함.
  146. Yampolskiy, Roman; Duettmann, Allison (2020). Artificial Superintelligence: Coordination & Strategy (영어). MDPI – Multidisciplinary Digital Publishing Institute. ISBN 978-3-03921-855-4.
  147. Topol, Eric J.; Verghese, Abraham (2019). Deep medicine: how artificial intelligence can make healthcare human again Fir판. New York, NY: Basic Books. ISBN 978-1-5416-4463-2.
  148. Jumper, John; Evans, Richard; Pritzel, Alexander; Green, Tim; Figurnov, Michael; Ronneberger, Olaf; Tunyasuvunakool, Kathryn; Bates, Russ; Žídek, Augustin; Potapenko, Anna; Bridgland, Alex; Meyer, Clemens; Kohl, Simon A. A.; Ballard, Andrew J.; Cowie, Andrew (August 2021). Highly accurate protein structure prediction with AlphaFold (영어). Nature 596. 583–589쪽. Bibcode:2021Natur.596..583J. doi:10.1038/s41586-021-03819-2. ISSN 1476-4687. PMC 8371605. PMID 34265844.
  149. Alowais, Shuroug A.; Alghamdi, Sahar S.; Alsuhebany, Nada; Alqahtani, Tariq; Alshaya, Abdulrahman I.; Almohareb, Sumaya N.; Aldairem, Atheer; Alrashed, Mohammed; Bin Saleh, Khalid; Badreldin, Hisham A.; Al Yami, Majed S.; Al Harbi, Shmeylan; Albekairy, Abdulkareem M. (2023년 9월 22일). Revolutionizing healthcare: the role of artificial intelligence in clinical practice. BMC Medical Education 23. 689쪽. doi:10.1186/s12909-023-04698-z. ISSN 1472-6920. PMC 10517477 |pmc= 값 확인 필요 (도움말). PMID 37740191.
  150. 1 2 Tegmark, Max (2017). Life 3.0: being human in the age of artificial intelligence. A Borzoi book. New York: Alfred A. Knopf. ISBN 978-1-101-94659-6.
  151. 1 2 Brynjolfsson, Erik; McAfee, Andrew (2016). The second machine age: work, progress, and prosperity in a time of brilliant technologies Fir publish as a Norton paperback판. New York London: W. W. Norton & Company. ISBN 978-0-393-35064-7.
  152. Zhai, Xuesong; Chu, Xiaoyan; Chai, Ching Sing; Jong, Morris Siu Yung; Istenic, Andreja; Spector, Michael; Liu, Jia-Bao; Yuan, Jing; Li, Yan (2021). A Review of Artificial Intelligence (AI) in Education from 2010 to 2020 (영어). Complexity 2021. doi:10.1155/2021/8812542. ISSN 1099-0526.
  153. Bostrom, Nick (2017). Superintelligence: paths, dangers, strategies Reprint wi corrections판. Oxford: Oxford University Press. ISBN 978-0-19-873983-8.
  154. Crawford, Kate (2021). Atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Haven: Yale University Press. ISBN 978-0-300-20957-0.
  155. Artificial Intelligence and Conservation | Pages | WWF (미국 영어). World Wildlife Fund. 2025년 4월 28일에 확인함.
  156. Rolnick, David; Donti, Priya L.; Kaack, Lynn H.; Kochanski, Kelly; Lacoste, Alexandre; Sankaran, Kris; Andrew Slavin Ross; Milojevic-Dupont, Nikola; Jaques, Natasha; Waldman-Brown, Anna; Luccioni, Alexandra; Maharaj, Tegan; Sherwin, Evan D.; Karthik Mukkavilli, S.; Kording, Konrad P.; Gomes, Carla; Ng, Andrew Y.; Hassabis, Demis; Platt, John C.; Creutzig, Felix; Chayes, Jennifer; Bengio, Yoshua (2019). Tackling Climate Change with Machine Learning. arXiv:1906.05433 [cs.CY].
  157. Tegmark, Max. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Penguin Books.
  158. Doherty, Ben (2018년 5월 17일). Climate change an 'existential security risk' to Australia, Senate inquiry says (영국 영어). The Guardian. ISSN 0261-3077. 2023년 7월 16일에 확인함.
  159. MacAskill, William (2022). What we owe the future. New York, NY: Basic Books. ISBN 978-1-5416-1862-6.
  160. 1 2 Ord, Toby (2020). Chapter 5: Future Risks, Unaligned Artificial Intelligence. The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing. ISBN 978-1-5266-0021-9.
  161. Al-Sibai, Noor (2022년 2월 13일). OpenAI Chief Scientist Says Advanced AI May Already Be Conscious. Futurism. 2023년 12월 24일에 확인함.
  162. Samuelsson, Paul Conrad (2019). Artificial Consciousness: Our Greatest Ethical Challenge. Philosophy Now. 2023년 12월 23일에 확인함.
  163. Kateman, Brian (2023년 7월 24일). AI Should Be Terrified of Humans (영어). Time. 2023년 7월 27일에 원본 문서에서 보존된 문서. 2023년 12월 23일에 확인함.
  164. Roose, Kevin (2023년 5월 30일). A.I. Poses 'Risk of Extinction,' Industry Leaders Warn (미국 영어). The New York Times. ISSN 0362-4331. 2023년 12월 24일에 확인함.
  165. 1 2 Statement on AI Risk. Center for AI Safety. 2023년 5월 30일. 2023년 6월 8일에 확인함.
  166. Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence;– but are we taking AI seriously enough?'. 인디펜던트. 2015년 9월 25일에 원본 문서에서 보존된 문서. 2014년 12월 3일에 확인함.
  167. Herger, Mario. The Gorilla Problem – Enterprise Garage (미국 영어). 2023년 6월 7일에 확인함.
  168. The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI (프랑스어). The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI. 2023년 6월 8일에 확인함.
  169. Will Artificial Intelligence Doom The Human Race Within The Next 100 Years? (영어). HuffPost. 2014년 8월 22일. 2023년 6월 8일에 확인함.
  170. Sotala, Kaj; Yampolskiy, Roman V. (2014년 12월 19일). Responses to catastrophic AGI risk: a survey. 피지카 스크립타 90. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  171. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies Fir판. Oxford University Press. ISBN 978-0-1996-7811-2.
  172. Chow, Andrew R.; Perrigo, Billy (2023년 2월 16일). The AI Arms Race Is On. Start Worrying (영어). Time. 2023년 2월 19일에 원본 문서에서 보존된 문서. 2023년 12월 24일에 확인함.
  173. Tetlow, Gemma (2017년 1월 12일). AI arms race risks spiralling out of control, report warns. Financial Times. 2022년 4월 11일에 원본 문서에서 보존된 문서. 2023년 12월 24일에 확인함.
  174. Milmo, Dan; Stacey, Kiran (2023년 9월 25일). Experts disagree over threat posed but artificial intelligence cannot be ignored (영국 영어). The Guardian. ISSN 0261-3077. 2023년 12월 24일에 확인함.
  175. Humanity, Security & AI, Oh My! (with Ian Bremmer & Shuman Ghosemajumder) (미국 영어). CAFE. 2023년 7월 20일. 2023년 9월 15일에 확인함.
  176. Hamblin, James (2014년 5월 9일). But What Would the End of Humanity Mean for Me?. The Atlantic. 2014년 6월 4일에 원본 문서에서 보존된 문서. 2015년 12월 12일에 확인함.
  177. Titcomb, James (2023년 10월 30일). Big Tech is stoking fears over AI, warn scientists (영어). The Telegraph. 2023년 12월 7일에 확인함.
  178. Davidson, John (2023년 10월 30일). Google Brain founder says big tech is lying about AI extinction danger (영어). Australian Financial Review. 2023년 12월 7일에 원본 문서에서 보존된 문서. 2023년 12월 7일에 확인함.
  179. Eloundou, Tyna; Manning, Sam; Mishkin, Pamela; Rock, Daniel (2023년 3월 17일). GPTs are GPTs: An early look at the labor market impact potential of large language models (미국 영어). OpenAI. 2023년 6월 7일에 확인함.
  180. 1 2 Hurst, Luke (2023년 3월 23일). OpenAI says 80% of workers could see their jobs impacted by AI. These are the jobs most affected (영어). euronews. 2023년 6월 8일에 확인함.
  181. Drago, Luke. What Happens When AI Replaces Workers? (영어). TIME. 2025년 7월 31일에 원본 문서에서 보존된 문서. 2025년 11월 2일에 확인함.
  182. Autor, David H. (Summer 2015). Why Are There Still So Many Jobs? The History and Future of Workplace Automation. Journal of Economic Perspectives 29. 3–30쪽. doi:10.1257/jep.29.3.3. 2025년 8월 2일에 확인함.
  183. Gmyrek, Paweł; Berg, Janine; Bescond, David (August 2023). Generative AI and Jobs: A Global Analysis of Potential Effects on Job Quantity and Quality (PDF) (보고서). ILO Working Paper. Geneva, Switzerland: International Labour Organization. 2025년 8월 2일에 확인함.
  184. Thompson, Clive (2022년 10월 13일). AI Shouldn't Compete With Workers—It Should Supercharge Them. Wired. 2025년 8월 2일에 확인함.
  185. Sheffey, Ayelet (2021년 8월 20일). Elon Musk says we need universal basic income because 'in the future, physical work will be a choice' (미국 영어). Business Insider. 2023년 7월 9일에 원본 문서에서 보존된 문서. 2023년 6월 8일에 확인함.
  186. Varanasi, Lakshmi (2025년 2월 27일). Will AI replace human jobs and make universal basic income necessary? Here's what AI leaders have said about UBI. Business Insider Africa. 2025년 8월 2일에 확인함.
  187. Hern, Alex (2023년 5월 4일). Bernie Sanders, Elon Musk and White House seeking my help, says 'godfather of AI'. The Guardian. 2025년 8월 2일에 확인함.

참고 자료

[편집]

추가 자료

[편집]
  • Aleksander, Igor (1996), Impossible Minds, World Scientific Publishing Company, ISBN 978-1-8609-4036-1 
  • Azevedo FA, Carvalho LR, Grinberg LT, Farfel J 외 (April 2009), Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain, The Journal of Comparative Neurology 513 (5): 532–541, doi:10.1002/cne.21974, PMID 19226510, S2CID 5200449, 2021년 2월 18일에 원본 문서에서 보존된 문서, 2013년 9월 4일에 확인함 ResearchGate 경유 
  • Berglas, Anthony (January 2012), Artificial Intelligence Will Kill Our Grandchildren (Singularity), 2014년 7월 23일에 원본 문서에서 보존된 문서, 2012년 8월 31일에 확인함 
  • 커키어, 케네스, "Ready for Robots? How to Think about the Future of AI", 포린 어페어스, vol. 98, no. 4 (July/August 2019), pp. 192–98. 조지 다이슨, 컴퓨터 역사학자는 (이것은 "다이슨의 법칙"이라고 불릴 수 있을 것이다) 다음과 같이 썼다. "이해할 수 있을 만큼 간단한 시스템은 지능적으로 행동할 만큼 충분히 복잡하지 않을 것이고, 지능적으로 행동할 만큼 충분히 복잡한 시스템은 이해하기에는 너무 복잡할 것이다." (p. 197.) 컴퓨터 과학자 알렉스 펜틀랜드는 다음과 같이 썼다. "현재 AI 기계 학습 알고리즘은 본질적으로 매우 단순하고 어리석다. 작동하지만, 무차별 대입 방식으로 작동한다." (p. 198.)
  • Gelernter, David, Dream-logic, the Internet and Artificial Thought, Edge, 2010년 7월 26일에 원본 문서에서 보존된 문서, 2010년 7월 25일에 확인함 
  • 글릭, 제임스, "자유 의지의 운명" (케빈 J. 미첼, Free Agents: How Evolution Gave Us Free Will, 프린스턴 대학교 출판부, 2023, 333 pp. 서평), 뉴욕 리뷰 오브 북스, vol. LXXI, no. 1 (2024년 1월 18일), pp. 27–28, 30. "작동성은 우리를 기계와 구별하는 것이다. 생물학적 존재에게 이성목적은 세상에서 행동하고 그 결과를 경험하는 데서 온다. 인공지능은 육체 없이 피, 땀, 눈물과 무관하게, 그런 기회가 없다." (p. 30.)
  • 글릭, 제임스, "기계 속 앵무새" (에밀리 M. 벤더와 알렉스 한나, The AI Con: How to Fight Big Tech's Hype and Create the Future We Want, 하퍼, 274 pp.; 제임스 보일, The Line: AI and the Future of Personhood, MIT Press, 326 pp. 서평), 뉴욕 리뷰 오브 북스, vol. LXXII, no. 12 (2025년 7월 24일), pp. 43–46. "[챗봇] '글쓰기'는 밍밍하고 반복적인 특징을 가지고 있다. 질감은 평탄해지고 날카로운 모서리는 다듬어진다. 어떤 챗봇도 4월이 가장 잔인한 달이거나 안개가 작은 고양이 발처럼 온다고 말할 수 없었을 것이다 (물론 이제는 그럴 수도 있는데, 그들의 주요 기술 중 하나가 표절이기 때문이다). 그리고 인공적으로 추출된 텍스트가 틀릴 경우, 우스꽝스러울 정도로 틀릴 수 있다. 영화 팬이 구글에게 특정 배우가 히트에 출연했는지 물었을 때, 그는 다음과 같은 'AI 개요'를 받았다. '아니요, 안젤리나 졸리는 히트에 출연하지 않았습니다.'" (p. 44.)
  • Halal, William E. TechCast Article Series: The Automation of Thought (PDF). 2013년 6월 6일에 원본 문서 (PDF)에서 보존된 문서. 
  • Halpern, Sue, "다가오는 기술 독재" (베리티 하딩, AI Needs You: How We Can Change AI's Future and Save Our Own, 프린스턴 대학교 출판부, 274 pp.; 게리 마커스, Taming Silicon Valley: How We Can Ensure That AI Works for Us, MIT Press, 235 pp.; 다니엘라 루스그레고리 몬, The Mind's Mirror: Risk and Reward in the Age of AI, 노턴, 280 pp.; 마두미타 무르지아, Code Dependent: Living in the Shadow of AI, 헨리 홀트, 311 pp. 서평), 뉴욕 리뷰 오브 북스, vol. LXXI, no. 17 (2024년 11월 7일), pp. 44–46. "AI로 부자가 되기를 바라는 사람들이 우리 모두의 이익을 진심으로 생각할 것이라고 현실적으로 기대할 수 없다"고 ... [게리 마커스]는 썼다. "[기술 기업으로부터의] 선거 자금 기부에 의해 움직이는 정부가 저항할 것이라고는 기대할 수 없다." ... 마커스는 시민들이 정부와 기술 기업에 요구해야 할 사항들을 자세히 설명한다. 여기에는 AI 시스템이 어떻게 작동하는지에 대한 투명성; 개인의 데이터가 LLM을 훈련하는 데 사용될 경우 개인에 대한 보상 및 이러한 사용에 동의할 권리; 미국 통신품위법 230조를 폐지하고, 현금 벌금을 부과하며, 더 엄격한 제조물 책임법을 통과시킴으로써 기술 기업이 야기하는 피해에 대해 책임을 지게 할 수 있는 능력 등이 포함된다. ... 마커스는 또한 ... FDA, FCC 또는 FTC와 유사한 새로운 AI 전담 연방 기관이 가장 강력한 감독을 제공할 수 있다고 제안한다. ... 포덤 법학 교수 친마이 샤르마는 ... 공학자들을 위한 전문 면허 제도를 수립하여 의학 분야의 의료 면허, 업무상 과실 소송, 히포크라테스 선서와 유사하게 기능하도록 제안한다. 그는 "의사들처럼, AI 엔지니어들도 해를 끼치지 않을 것이라고 맹세한다면 어떨까?"라고 묻는다. (p. 46.)
  • 휴스-캐슬베리, 켄나, "살인 미스터리 퍼즐: 수십 년 동안 인간을 당황하게 했던 문학 퍼즐 카인의 턱뼈가 자연어 처리 알고리즘의 한계를 드러냈다", 사이언티픽 아메리칸, vol. 329, no. 4 (2023년 11월), pp. 81–82. "이 살인 미스터리 경쟁은 자연어 처리 모델이 놀라운 업적을 달성할 수 있지만, 그들의 능력은 받는 문맥의 양에 의해 매우 제한된다는 것을 보여주었다. 이는 [...] 고대 언어 분석과 같은 목적으로 이들을 사용하고자 하는 연구자들에게 [어려움]을 야기할 수 있다. 어떤 경우에는 그러한 목적을 위한 훈련 데이터 역할을 할 오래 전 사라진 문명에 대한 역사적 기록이 거의 없다." (p. 82.)
  • 이머바르, 다니엘, "당신의 거짓말하는 눈: 이제 사람들은 인공지능을 사용하여 실제와 구별할 수 없는 가짜 동영상을 생성한다. 그것이 얼마나 중요한가?", 더 뉴요커, 2023년 11월 20일, pp. 54–59. "만약 '딥페이크'가 실제 사람들을 속이는 인공지능을 사용하여 제작된 현실적인 동영상을 의미한다면, 그것들은 거의 존재하지 않는다. 가짜는 깊지 않고, 깊은 것은 가짜가 아니다. [...] 인공지능 생성 동영상은 일반적으로 우리 미디어에서 위조된 증거로 작동하지 않는다. 그들의 역할은 만화, 특히 음란한 만화와 더 유사하다." (p. 59.)
  • Leffer, Lauren, "AI를 신뢰하는 위험: 과학 연구에 사용되는 기계 학습 모델을 인간화하는 것을 피해야 한다", 사이언티픽 아메리칸, vol. 330, no. 6 (2024년 6월), pp. 80–81.
  • 르포어, 질, "수다쟁이 챗봇: 기계와의 대화는 대화인가?", 더 뉴요커, 2024년 10월 7일, pp. 12–16.
  • 마커스, 게리, "인공적 자신감: 최신, 가장 흥미로운 인공 일반 지능 시스템조차도 똑같은 오래된 문제에 의해 방해받는다", 사이언티픽 아메리칸, vol. 327, no. 4 (2022년 10월), pp. 42–45.
  • McCarthy, John (Oct 2007), From here to human-level AI, Artificial Intelligence 171 (18): 1174–1182, doi:10.1016/j.artint.2007.10.009 
  • McCorduck, Pamela (2004), Machines Who Think 2판, Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1 
  • Moravec, Hans (1976), The Role of Raw Power in Intelligence, 2016년 3월 3일에 원본 문서에서 보존된 문서, 2007년 9월 29일에 확인함 
  • Newell, Allen; Simon, H. A. (1963), GPS: A Program that Simulates Human Thought, Feigenbaum, E. A.; Feldman, J. (편집), Computers and Thought, New York: McGraw-Hill 
  • Omohundro, Steve (2008), The Nature of Self-Improving Artificial Intelligence, presented and distributed at the 2007 Singularity Summit, San Francisco, California 
  • 프레스, 에얄, "그들의 얼굴 앞에서: 안면 인식 기술이 경찰이 모순되는 증거를 무시하도록 이끄는가?", 더 뉴요커, 2023년 11월 20일, pp. 20–26.
  • 로이바이넨, 에카, "AI의 IQ: 챗GPT는 [표준 지능] 테스트를 통과했지만, 지능IQ만으로는 측정될 수 없음을 보여주었다", 사이언티픽 아메리칸, vol. 329, no. 1 (2023년 7월/8월), p. 7. "높은 IQ에도 불구하고 챗GPT는 실제 인간과 같은 추론이나 물리적, 사회적 세계에 대한 이해가 필요한 작업에서는 실패한다.... 챗GPT는 논리적으로 추론할 수 없었고 온라인 텍스트에서 파생된 방대한 [...] 사실 데이터베이스에 의존하려 한 것 같았다."
  • Scharre, Paul, "킬러 앱: AI 군비 경쟁의 진정한 위험", 포린 어페어스, vol. 98, no. 3 (2019년 5월/6월), pp. 135–44. "오늘날의 AI 기술은 강력하지만 신뢰할 수 없다. 규칙 기반 시스템은 프로그래머가 예상하지 못한 상황에 대처할 수 없다. 학습 시스템은 훈련된 데이터에 의해 제한된다. AI 실패는 이미 비극을 초래했다. 자동차의 고급 자율 주행 기능은 일부 상황에서는 잘 작동하지만, 경고 없이 트럭, 콘크리트 장벽, 주차된 자동차로 돌진하기도 했다. 잘못된 상황에서 AI 시스템은 초지능에서 초바보로 순간적으로 바뀐다. 적이 AI 시스템을 조작하고 해킹하려 할 때, 위험은 훨씬 더 커진다." (p. 140.)
  • Sutherland, J. G. (1990), Holographic Model of Memory, Learning, and Expression, International Journal of Neural Systems 1–3, 256–267쪽 
  • 빈센트, 제임스, "음탕한 로봇 아기 목소리: AI 챗봇에 대한 제임스 빈센트", 런던 리뷰 오브 북스, vol. 46, no. 19 (2024년 10월 10일), pp. 29–32. "[AI 챗봇] 프로그램은 새로운 기술에 의해 가능해지지만, 의인화하려는 인간의 영원한 경향에 의존한다." (p. 29.)
  • Williams, R. W.; Herrup, K. (1988), The control of neuron number, Annual Review of Neuroscience 11: 423–453, doi:10.1146/annurev.ne.11.030188.002231, PMID 3284447 
  • Yudkowsky, Eliezer (2008), Artificial Intelligence as a Positive and Negative Factor in Global Risk, Global Catastrophic Risks, Bibcode:2008gcr..book..303Y, doi:10.1093/oso/9780198570509.003.0021, ISBN 978-0-1985-7050-9 
  • Zucker, Jean-Daniel (July 2003), A grounded theory of abstraction in artificial intelligence, 왕립학회 철학회보 B 358 (1435), 1293–1309쪽, doi:10.1098/rstb.2003.1308, PMC 1693211, PMID 12903672 

외부 링크

[편집]