인간이 AI를 결코 이해하지 못하는 이유는
- 카테고리 없음
- 2023. 4. 10.
인공 신경망 개발을 시작한 많은 선구자들은 그것이 실제로 어떻게 작동하는지 확신하지 못했으며 오늘날 우리는 더 이상 확신하지 못합니다.
.
1956년, 20대 초반의 런던 여행 중 수학자이자 이론 생물학자인 Jack D Cowan은 Wilfred Taylor와 그의 이상한 새 "학습 기계"를 방문했습니다. 그가 도착했을 때 그는 그와 마주한 "거대한 장치 뱅크"에 당황했습니다. Cowan은 "기계가 제 역할을 하는 것"을 서서 지켜볼 수밖에 없었습니다. 그것은 연결을 찾고 데이터를 검색하는 방법을 배울 수 있는 것처럼 보였습니다.
그것은 많은 전선과 상자에 손으로 납땜한 투박한 회로 블록처럼 보였을지 모르지만 Cowan이 목격한 것은 신경망의 초기 아날로그 형태였습니다.
거의 모든 명령에 대한 응답으로 서면 콘텐츠를 생성하는 기능으로 ChatGPT에 대해 많이 논의했습니다
. ChatGPT의 기본 기술은 신경망입니다. ( ChatGPT가 꿈꾸는 AI 감성에 대해 자세히 읽어보세요 )
Cowan과 Taylor는 서서 기계가 작동하는 것을 지켜보면서 기계가 이 작업을 어떻게 수행하고 있는지 정확히 알지 못했습니다. Taylor의 미스터리한 기계 두뇌에 대한 답은 "아날로그 뉴런" 어딘가에서, 기계 메모리에 의해 만들어진 연관성에서, 그리고 가장 중요한 것은 자동화된 기능이 실제로 완전히 설명될 수 없다는 사실에서 찾을 수 있습니다. 이러한 시스템이 목적을 찾고 그 힘이 풀리려면 수십 년이 걸릴 것입니다.
당신은 또한 좋아할 수 있습니다:
자동 번역을 거부하는 언어
우리가 기계를 그토록 신뢰하는 이유
AI의 이상하고 놀라운 예술
신경망이라는 용어는 광범위한 시스템을 포함하지만 IBM에 따르면 중심적으로 이러한 "신경망(ANN(인공 신경망) 또는 SNN(시뮬레이션 신경망)이라고도 함)은 기계 학습의 하위 집합이며 딥 러닝 알고리즘의 핵심". 결정적으로 용어 자체와 그 형태 및 구조는 "인간의 뇌에서 영감을 받아 생물학적 뉴런이 서로 신호를 보내는 방식을 모방"합니다.
초기 단계에서 그 가치에 대한 약간의 의심이 남아있을 수 있지만, 몇 년이 지나면서 AI 패션은 신경망으로 확고하게 방향을 틀었습니다. 그들은 이제 종종 AI의 미래로 이해됩니다. 그것들은 우리와 인간이 된다는 것이 무엇을 의미하는지에 대해 큰 의미를 가지고 있습니다. 우리는 최근 이러한 우려가 미치는 영향에 대한 확신을 보장하기 위해 6개월 동안 새로운 AI 개발을 일시 중지하라는 요청과 함께 이러한 우려의 메아리를 들었습니다.
신경망을 광택이 나고 눈길을 끄는 새로운 장치에 관한 것이라고 무시하는 것은 확실히 실수입니다. 그들은 이미 우리 삶에 잘 자리 잡고 있습니다. 일부는 실용성이 강력합니다. 1989년으로 거슬러 올라가 AT&T Bell Laboratories의 한 팀은 손으로 쓴 우편 번호를 인식하도록 시스템을 교육하기 위해 역전파 기술을 사용했습니다. Bing 검색이 AI에 의해 구동되어 "웹용 부조종사"가 될 것이라는 Microsoft의 최근 발표는 우리가 발견한 항목과 이를 이해하는 방식이 점점 더 이러한 유형의 자동화의 산물이 될 것임을 보여 줍니다.
패턴을 찾기 위해 방대한 데이터를 사용하는 AI는 이미지 인식과 같은 작업을 빠르게 수행하도록 유사하게 훈련되어 예를 들어 얼굴 인식에 통합될 수 있습니다. 패턴을 식별하는 이러한 능력은 주식 시장 예측과 같은 다른 많은 응용 프로그램으로 이어졌습니다.
신경망은 우리가 해석하고 소통하는 방식도 변화시키고 있습니다. Google Brain Team에서 개발한 Google 번역은 신경망의 또 다른 탁월한 응용 프로그램입니다.
당신은 체스나 교기를 하고 싶지 않을 것입니다. 규칙을 이해하고 전략과 기록된 모든 동작을 기억하는 것은 그들이 게임에 유난히 능숙하다는 것을 의미합니다(ChatGPT는 Wordle과 어려움을 겪는 것처럼 보이지만. 인간 바둑 플레이어를 괴롭히는 시스템(바둑은 악명 높은 까다로운 전략 보드게임입니다)과 체스 그랜드 마스터는 신경망으로 만들어집니다.
그러나 그들의 범위는 이러한 사례를 훨씬 뛰어넘어 계속 확장되고 있습니다. 정확한 문구 "신경망"에 대한 언급으로만 제한된 특허 검색은 작성 시점에 135,828개의 결과를 생성했습니다. 이러한 급속하고 지속적인 확장으로 인해 AI의 영향력을 완전히 설명할 수 있는 기회는 더욱 희박해질 수 있습니다. 이것이 제가 연구 와 알고리즘적 사고에 관한 새 책에서 검토해온 질문들 입니다.
'알 수 없음'의 신비한 층
신경망의 역사를 되돌아보면 현재를 정의하는 자동화된 결정이나 미래에 더 큰 영향을 미칠 가능성이 있는 결정에 대해 중요한 사실을 알 수 있습니다. 그들의 존재는 또한 우리가 시간이 지남에 따라 AI의 결정과 영향을 훨씬 덜 이해할 가능성이 있음을 말해줍니다. 이러한 시스템은 단순한 블랙박스가 아니며, 보거나 이해할 수 없는 시스템의 숨겨진 부분이 아닙니다.
인공 지능이 우리 삶에 미치는 영향이 커질수록 우리는 그 방법과 이유를 덜 이해하게 될 가능성이 높습니다.
그것은 다른 것, 즉 이러한 시스템 자체의 목적과 디자인에 뿌리를 둔 것입니다. 설명할 수 없는 것에 대한 오랜 추구가 있습니다. 불투명할수록 시스템이 더 정통하고 발전된 것으로 간주됩니다. 시스템이 더 복잡해지거나 액세스를 제한하는 지적 재산의 통제에 관한 것만은 아닙니다(비록 이것들이 그 일부이긴 하지만). 대신 그들을 이끄는 정신이 "알 수 없음"에 대한 특별하고 내재된 관심을 가지고 있다고 말하는 것입니다. 수수께끼는 신경망의 형태와 담화 자체에도 코딩되어 있습니다. 그것들은 깊게 쌓인 레이어(따라서 딥 러닝이라는 문구)와 함께 제공되며 그 깊이 안에는 훨씬 더 신비한 소리가 나는 "숨겨진 레이어"가 있습니다
. 이 시스템의 신비는 표면 아래 깊숙이 있습니다.
인공 지능이 우리 삶에 미치는 영향이 커질수록 우리는 그 방법과 이유를 덜 이해하게 될 가능성이 높습니다. 오늘날 설명 가능한 AI에 대한 강력한 압박이 있습니다. 우리는 그것이 어떻게 작동하고 어떻게 결정과 결과에 도달하는지 알고 싶습니다. 유럽 연합은 잠재적으로 "용납할 수 없는 위험"과 심지어 "위험한" 애플리케이션에 대해 우려하고 있으며, 현재 " 안전하고 신뢰할 수 있으며 윤리적인 인공 지능의 개발"을 위한 글로벌 표준을 설정하기 위한 새로운 AI 법안을 추진하고
있습니다.
이러한 새로운 법률은 "고위험 AI 시스템의 경우 고품질 데이터, 문서화 및 추적 가능성, 투명성, 인적 감독, 정확성 및 견고성에 대한 요구 사항이 위험을 완화하는 데 반드시 필요하다는 설명 가능성의 필요성을 기반으로 합니다. AI가 제기하는 기본권과 안전" 이는 자율주행차(안전을 보장하는 시스템은 EU의 고위험 AI 범주에 속하지만)와 같은 것뿐만 아니라 향후 인권에 영향을 미칠 시스템이 등장할 것이라는 우려도
있다.
이는 AI의 활동을 확인, 감사 및 평가할 수 있도록 AI의 투명성에 대한 광범위한 요청의 일부입니다. 또 다른 예는 설명 가능한 AI에 대한 왕립 학회의 정책 브리핑에서 "전 세계 정책 토론에서 점점 더 AI의 설계 및 배포에 윤리적 원칙을 포함하려는 노력의 일환으로 어떤 형태의 AI 설명 가능성에 대한 요구를 보게 됩니다. 활성화된 시스템".
그러나 신경망의 이야기는 우리가 미래에 목표에 가까워지기보다는 멀어질 가능성이 높다는 것을 말해줍니다.
인간의 두뇌에서 영감을 받은
이러한 신경망은 복잡한 시스템일 수 있지만 몇 가지 핵심 원칙이 있습니다. 인간의 두뇌에서 영감을 얻은 그들은 생물학적 및 인간적 사고의 형태를 복사하거나 시뮬레이션하려고 합니다. 구조 및 디자인 측면에서 IBM이 설명하는 것처럼 "입력 계층, 하나 이상의 숨겨진 계층 및 출력 계층을 포함하는 노드 계층"으로 구성됩니다. 이 안에서 "각 노드 또는 인공 뉴런은 다른 노드에 연결됩니다." 출력을 생성하려면 입력과 정보가 필요하기 때문에 "시간이 지남에 따라 정확도를 학습하고 개선하기 위해 훈련 데이터에 의존"합니다. 이러한 기술적 세부 사항은 중요하지만 인간 두뇌의 복잡성에 따라 이러한 시스템을 모델링 하려는 소망도 중요합니
다.
이러한 기술 세부 사항이 실제로 무엇을 의미하는지 이해하려면 이러한 시스템 뒤에 있는 야망을 파악하는 것이 중요합니다. 1993년 인터뷰에서 신경망 과학자 Teuvo Kohonen은 "자기 구성" 시스템이 "내 꿈"이며 "우리의 신경계가 본능적으로 수행하는 것과 같은 것"을 작동한다고 결론지었습니다. 예를 들어, Kohonen은 자체적으로 모니터링하고 관리하는 시스템이 "모든 비행기, 제트기, 모든 원자력 발전소 또는 모든 자동차에서 모든 기계의 모니터링 패널로 사용될 수 있는" 방법을 상상했습니다. 이것은 미래에 "시스템이 어떤 상태에 있는지 즉시 알 수 있다"는 것을 의미한다고 그는 생각했습니
다.