티스토리 뷰

윈 맥나미 | 게티 이미지

최근 며칠 동안 AI에 대한 수다를 많이 들었다면 아마 혼자가 아닐 것입니다.

AI 개발자, 저명한 AI 윤리학자, 심지어 마이크로소프트의 공동 설립자 빌 게이츠까지 지난주에 그들의 작업을 변호했습니다 . 테슬라 CEO 일론 머스크와 애플 공동 창업자 스티브 워즈니악이 서명한 지난 주 생명의 미래 연구소가 인간 수준과 경쟁할 수 있는 AI 시스템 작업을 6개월간 중단할 것을 촉구하는 공개 서한 에 대한 응답이다. 지능.

 

현재 13,500명 이상의 서명이 있는 이 서한은 OpenAI의 ChatGPT , Microsoft의 Bing AI 챗봇  Alphabet의 Bard 와 같은 프로그램을 개발하는 ”위험한 경주”가 확인되지 않으면 광범위한 허위 정보에서 인간 일자리 양도에 이르기까지 부정적인 결과를 초래할 수 있다는 우려를 표명했습니다. 기계에.

그러나 적어도 가장 큰 유명인 중 하나를 포함하여 기술 산업의 많은 부분이 뒤로 물러나고 있습니다.

게이츠는 월요일 로이터와 의 인터뷰에서 ”특정 그룹에게 일시 중지를 요청하는 것이 문제를 해결한다고 생각하지 않는다”고 말했다 . Gates는 업계가 ”까다로운 영역을 식별”하기 위해 더 많은 연구가 필요하다는 데 동의했지만 전 세계 산업 전반에 걸쳐 일시 중지를 시행하기 어려울 것이라고 덧붙였습니다.

그것이 논쟁을 흥미롭게 만드는 이유라고 전문가들은 말합니다. 공개 서한은 몇 가지 정당한 우려를 인용할 수 있지만 제안된 해결책은 달성하기 불가능해 보입니다.

정부 규제에서 잠재적인 로봇 반란에 이르기까지 그 이유와 다음에 일어날 수 있는 일이 여기에 있습니다.

머스크와 워즈니악이 걱정하는 것은 무엇입니까?

공개 서한의 우려 사항은 상대적으로 간단합니다. .”

AI 시스템에는 프로그래밍 편향 과 잠재적인 개인 정보 보호 문제가 있는 경우가 많습니다 . 그들은 특히 악의적으로 사용될 때 잘못된 정보를 널리 퍼뜨릴 수 있습니다.

그리고 개인 비서에서 고객 서비스 담당자에 이르기까지 인간의 직업을 AI 언어 시스템으로 대체하여 비용을 절감하려는 기업을 상상하기 쉽습니다 .

이탈리아는 이미 OpenAI 데이터 유출로 인한 개인 정보 문제로 인해 ChatGPT를 일시적으로 금지했습니다 . 영국 정부는 지난 주에 규제 권고안을 발표했고 유럽소비자기구(European Consumer Organization)는 유럽 전역의 국회의원들에게도 규제를 강화할 것을 촉구했습니다.

미국에서는 일부 의회 의원들이 AI 기술을 규제하기 위한 새로운 법률을 요구했습니다. 지난달 연방거래위원회(Federal Trade Commission)는 이러한 챗봇을 개발하는 기업에 대한 지침을 발표했는데, 이는 연방 정부가 사기꾼이 사용할 수 있는 AI 시스템을 예의주시하고 있음을 암시합니다.

그리고 작년에 통과된 여러 주 개인 정보 보호법은  기업이 AI 제품이 언제 어떻게 작동하는지 공개하도록 강제하고  고객이  AI 자동화된 결정을 위해 개인 데이터 제공을 거부할 수 있는 기회를 제공하는 것을 목표로 합니다.

이러한 법률은 현재 캘리포니아, 코네티컷, 콜로라도, 유타 및 버지니아에서 유효합니다.

AI 개발자는 무엇을 말합니까?

적어도 하나의 AI 안전 및 연구 회사는 아직 걱정하지 않습니다 .

지난 2월 알파벳으로부터 4억 달러 투자를 받은 앤트로픽은 자체 AI 챗봇을 보유하고 있다. 블로그 게시물에서 미래의 AI 시스템은 향후 10년 동안 ”훨씬 더 강력”해질 수 있으며 이제 가드레일을 구축하면 ”위험을 줄이는 데 도움이 될” 수 있다고 언급했습니다.

문제: 그 난간이 어떤 모습일 수 있고 어떤 모습이어야 하는지 아무도 확신하지 못한다고 Anthropic은 썼습니다.

주제에 대한 대화를 유도하는 공개 서한의 능력은 유용하다고 회사 대변인이 CNBC Make It에 말했습니다. 대변인은 Anthropic이 6개월의 일시 중지를 지원할 것인지 여부를 지정하지 않았습니다.

수요일 트윗에서 OpenAI CEO Sam Altman은 ”민주적 거버넌스를 포함한 효과적인 글로벌 규제 프레임워크”와 주요 인공 일반 지능(AGI) 회사 간의 ”충분한 조정”이 도움이 될 수 있음을 인정했습니다.

 

그러나 Microsoft가 자금을 지원하는 회사에서 ChatGPT를 만들고 Bing의 AI 챗봇 개발을 도운 Altman은 이러한 정책이 수반할 수 있는 내용을 지정하지 않았으며 공개 서한에 대한 CNBC Make It의 의견 요청에 응답하지 않았습니다.

일부 연구자들은 또 다른 문제를 제기합니다. 연구를 중단하면 빠르게 변화하는 산업의 발전이 저해되고 자체 AI 시스템을 개발하는 권위주의 국가가 앞서 나갈 수 있습니다.

AI의 잠재적인 위협을 강조하면 악의적인 행위자가 사악한 목적을 위해 기술을 수용하도록 부추길 수 있다고 AI 연구원이자 AI 지원 검색 엔진 스타트업 You.com의 CEO인 Richard Socher는 말합니다.

이러한 위협의 신속성을 과장하는 것은 주제에 대한 불필요한 히스테리를 조장한다고 Socher는 말합니다. 공개 서한의 제안은 ”집행이 불가능하며 잘못된 수준에서 문제를 다루고 있다”고 그는 덧붙였다.

지금 무슨 일이 일어나는거야?

AI 개발자의 공개 서한에 대한 음소거된 응답은 거대 기술 기업과 신생 기업 모두가 자발적으로 작업을 중단할 가능성이 낮다는 것을 나타내는 것 같습니다.

특히 미국 과 유럽 의 국회의원들이 이미 AI 개발자들에게 투명성을 요구하고 있기 때문에 정부 규제 강화에 대한 서한의 요구가 더 가능성이 높아 보입니다.

미국에서 FTC는 또한 AI 개발자가 잘못된 정보나 암시적 편견을 포함하지 않는 데이터 세트로만 새로운 시스템을 교육하고 해당 제품이 대중에게 공개되기 전후에 테스트를 늘리도록 요구하는 규칙을 수립할 수 있습니다. 로펌 Alston & Bird의 12월 자문 .

공개 서한에 공동 서명한 버클리 대학 컴퓨터 과학자이자 선도적인 AI 연구원인 스튜어트 러셀(Stuart Russell)은 기술이 더 발전하기 전에 그러한 노력이 이루어져야 한다고 말했습니다.

러셀은 토요일 CNN과의 인터뷰 에서 일시 중지는 첨단 AI 시스템이 ”과도한 위험을 초래하지 않는다”는 것을 기술 회사가 증명할 수 있는 더 많은 시간을 줄 수 있다고 말했습니다 .

양측 모두 한 가지에 동의하는 것 같습니다. 빠른 AI 개발의 최악의 시나리오는 예방할 가치가 있습니다. 단기적으로 AI 제품 사용자에게 투명성을 제공하고 사기꾼으로부터 보호하는 것을 의미합니다.

장기적으로 이는 AI 시스템이 인간 수준의 지능을 능가하지 못하도록 하고 이를 효과적으로 제어할 수 있는 능력을 유지하는 것을 의미할 수 있습니다.

게이츠는 2015년 BBC와의 인터뷰에서 ”지능으로 인간과 경쟁하고 능가하는 기계를 만들기 시작하면 우리가 생존하기가 매우 어려울 것”이라고 말했다.