최근 검색어
0

스토리

내일은쌤 스토리는 쌤들이 직접 올려주시는 컨텐츠로 만들어지는 공간입니다.

글쓰기

인공지능에 대한 경고, 인류의 친구일까 적일까?

에디터

2023년 05월 04일

  • 창의 STEM

  • 기타

  • 기타

안녕하세요내일은쌤입니다.

 

최근 인공지능(AI)의 대부 격으로 통하는 저명한 과학자 제프리 힌턴 박사가 10여년간 연구자로 근무해오던 구글을 떠났다는 소식이 들렸습니다그리고 언론을 통해 연일 AI의 위험성을 경고하고 있는데요.

 

힌턴 박사가 구글을 떠난 이유는 조직에서 벗어나 AI의 위험성을 자유롭게 알리고 싶기 때문이라고 하는데요AI는 끊임없는 학습을 통해 그리 머지않은 미래에 인간의 능력을 추월할 것이기에 인간의 통제를 벗어날 수밖에 없다는 것입니다. AI기술이 적용된 킬러 로봇이 현실이 될까 두려우며인공지능 연구에 바친 일생을 후회한다고 하네요. 

 

 제프리 힌턴 박사(사진: 로이터)

 

인공지능의 위험성에 대한 경고가 이번이 처음은 아닙니다.

 

전기차 회사 테슬라의 최고경영자인 일론 머스크도 AI의 위험성을 꾸준히 경고하고 있고, 세계적으로 AI 열풍을 일으킨 ChatGPT에 대해서도 AI와 관련한 안전을 위해 규제에 나서야 한다고 주장했습니다.

 

재미있는 것은 일론 머스크 본인이 ChatGPT의 개발사인 OpenAI 설립에 참여했다는 사실이예요. 2018년에 사임한 후에는 OpenAI가 비영리회사였던 설립 당시와는 다르게 지금은 폐쇄형 이윤업체라며 비판하고 있습니다. 

 

일론 머스크(사진: 연합뉴스)

  

우리에게 사피엔스’ 라는 저서로 잘 알려져 있는 역사학자 유발 하라리 역시 AI의 위험성을 경고했습니다하라리는 GPT-4와 같은 강한 위력을 지닌 인공지능 시스템이 인류가 감당할 수 없는 빠른 속도로 퍼져나가게 해서는 안 된다고 주장하면서시장을 장악하기 위한 경쟁이 인류에게 가장 중요한 기술을 배포하는 속도를 결정해서는 안 된다고 말했습니다.

 

 

유발 하라리(사진: 뉴시스)

 

일찍이 영국의 세계적인 이론물리학자였던 스티븐 호킹 박사 인공지능에 대해 여러 차례 경고했는데요인공지능에 대해 인류 문명 역사상 최악의 사건이 될 수 있다.”인공지능 개발이 가져올 수 있는 잠재적 위협에 철저하게 대비해야 한다고 주장했습니다.

 

故 스티븐 호킹 박사(사진: NASA)

 

최근에는 인공지능 전문가 1000여명이 사회에 대한 위협을 이유로 AI 개발의 잠정 중단을 촉구하는 일도 있었는데요.

기술을 책임감 있고 윤리적으로 연구하고 개발하자는 목표로 설립된 비영리단체인 삶의 미래 연구소(FLI)’의 공개서한에 위에 언급된 일론 머스크와 유발 하라리를 비롯해 세계적인 AI 권위자 스튜어트 러셀 UC버클리 교수와 딥러닝 창시자로 알려진 조슈아 벤티오 몬트리올대 교수스티브 워즈니악 애플 공동 창업자 등 세계 여러 석학들이 서명했습니다.

 

따라잡기 어려울 정도의 속도로 인공지능이 발전하고 있는 와중에일각에서는 끊임없이 경고의 목소리가 나오는 것을 보니 역시 인공지능이 이 시대의 화두인 것만은 확실해 보입니다모든 일에 장단점이 있듯이 인공지능 기술을 무조건적으로 옹호하거나 반대하기 보다는 다양한 목소리를 존중하고 사회적 합의를 이끌어내는 과정이 필요하겠죠인류 역사의 발전 과정에서 이러한 갈등과 타협은 끊임없이 이루어져 왔는데요과연 인공지능 기술이 어떤 방향으로 우리를 이끌지 정말 궁금해집니다.

  

 

  • 1
  • 1
  • 0 p



상품 수령후 7일 이내 신청시 교환 및 반품이 가능합니다. (상품박스 및 상품 훼손, 반품불가 표기 항목 제외)