인공지능(AI)은 위험한가?


2023년 5월 22일 월요일, 'Bloomberg Feed'라는 확인된 트위터 계정에서 이미지와 함께 펜타곤에서 폭발 이 있었다고 주장하는 트윗을 공유했습니다. 이것이 인공 지능(AI)과 어떤 관련이 있는지 궁금하다면 해당 이미지는 AI가 생성한 이미지였으며 트윗은 빠르게 입소문을 타고 짧은 주식 시장 하락을 촉발했습니다. 상황은 훨씬 더 나빴을 수도 있습니다. 이는 인공 지능의 위험성을 극명하게 상기시켜 줍니다.

인공지능의 위험성

우리가 걱정해야 할 것은 가짜 뉴스만이 아닙니다. 개인 정보 보호 및 보안부터 편견 및 저작권 문제에 이르기까지 AI와 관련된 즉각적이거나 잠재적인 위험이 많이 있습니다. 우리는 이러한 인공 지능의 위험 중 일부에 대해 자세히 알아보고, 현재와 미래에 이를 완화하기 위해 어떤 조치가 이루어지고 있는지 알아보고, AI의 위험이 이점보다 더 큰지 물어볼 것입니다.

가짜 뉴스

딥페이크가 처음 등장했을 때 악의적인 의도로 사용될 수 있다는 우려가 있었습니다. DALL-E 2, Midjourney 또는 DreamStudio와 같은 AI 이미지 생성기 의 새로운 물결에 대해서도 마찬가지입니다. 2023년 3월 28일, 흰색 발렌시아가 패딩 재킷을 입은 가짜 AI가 생성한 프란치스코 교황 이미지 가 스케이트보드, 포커 게임 등 다양한 모험을 즐기는 모습이 입소문을 냈습니다. 이미지를 자세히 살펴보지 않으면 이러한 이미지와 실제 이미지를 구별하기가 어려웠습니다.

교황과 관련된 예는 의심할 바 없이 약간 재미있었지만 국방부에 대한 이미지(및 그에 따른 트윗)는 전혀 재미가 없었습니다. AI가 생성한 가짜 이미지는 평판을 손상시키고, 결혼이나 경력을 끝내고, 정치적 불안을 조성하고, 잘못된 사람이 사용하는 경우 심지어 전쟁을 시작할 수도 있습니다. 즉, 이러한 AI가 생성한 이미지는 오용될 경우 매우 위험할 가능성이 있습니다.

이제 누구나 무료로 사용할 수 있는 AI 이미지 생성기와 인기 소프트웨어 AI 이미지 생성기를 추가하는 Photoshop 를 통해 이미지를 조작하고 가짜 뉴스를 만들 수 있는 기회가 그 어느 때보다 커졌습니다.

개인정보 보호, 보안 및 해킹

개인 정보 보호와 보안 역시 AI의 위험과 관련하여 큰 우려 사항이며, 이미 많은 국가에서 OpenAI의 ChatGPT를 금지하고 있습니다. 이탈리아는 이 모델이 유럽 개인정보보호법(GDPR)을 준수하지 않는다는 이유로 개인정보 보호 문제를 이유로 금지했고, 중국, 북한, 러시아 정부는 잘못된 정보가 확산될 것을 우려해 금지했다..

그렇다면 우리가 AI와 관련하여 개인정보 보호에 대해 그토록 우려하는 이유는 무엇일까요? AI 앱 및 시스템은 학습하고 예측하기 위해 대량의 데이터를 수집합니다. 그런데 이 데이터는 어떻게 저장되고 처리됩니까? 데이터 유출, 해킹, 정보가 다른 사람의 손에 넘어갈 위험이 실제로 존재합니다.

위험에 처한 것은 개인 데이터뿐만이 아닙니다. AI 해킹은 진정한 위험입니다. 아직 그런 일이 발생하지는 않았지만, 악의적인 의도를 가진 사람이 AI 시스템을 해킹할 수 있다면 이는 심각한 결과를 초래할 수 있습니다. 예를 들어, 해커는 무인 차량을 제어하고, AI 보안 시스템을 해킹하여 매우 안전한 위치에 접근할 수 있으며, 심지어 AI 보안으로 무기 시스템을 해킹할 수도 있습니다.

미국 국방부 산하 DARPA(Defense Advanced Research Projects Agency)의 전문가들은 이러한 위험을 인식하고 이미 DARPA의 GARD(Guaranteeing AI Robustness Against Deception) 프로젝트에 참여하여 문제를 처음부터 해결하고 있습니다. 이 프로젝트의 목표는 해킹 및 변조에 대한 저항력이 알고리즘과 AI에 내장되도록 하는 것입니다.

저작권 침해

AI의 또 다른 위험성은 저작권 침해입니다. 이는 우리가 언급한 다른 위험만큼 심각하지 않게 들릴 수도 있지만 GPT-4와 같은 AI 모델의 개발로 인해 모든 사람이 침해될 위험이 높아졌습니다.

ChatGPT에 여행에 관한 블로그 게시물이든 회사의 새 이름이든 무엇인가를 생성해 달라고 요청할 때마다 ChatGPT에 정보를 제공하고 이 정보를 향후 쿼리에 응답하는 데 사용합니다. 그것이 피드백하는 정보는 다른 사람의 저작권을 침해할 수 있으므로 표절 탐지기를 사용하고 AI가 생성한 콘텐츠를 게시하기 전에 편집하는 것이 매우 중요합니다.

사회 및 데이터 편견

AI는 인간이 아니므로 편향될 수 없겠죠? 잘못된. 사람과 데이터는 AI 모델을 훈련하는 데 사용되며 챗봇 는 편향된 데이터나 성격으로 인해 편향된 AI가 생성된다는 의미입니다. AI에는 사회적 편견과 데이터 편견이라는 두 가지 유형의 편견이 있습니다.

일상 사회에는 많은 편견이 존재하는데, 이러한 편견이 AI의 일부가 되면 어떻게 될까요? 모델 훈련을 담당하는 프로그래머는 편향된 기대를 가질 수 있으며, 이는 AI 시스템에 영향을 미칠 수 있습니다..

또는 AI를 훈련하고 개발하는 데 사용되는 데이터가 부정확하거나 편향되거나 악의적으로 수집될 수도 있습니다. 이는 사회적 편견만큼 위험할 수 있는 데이터 편견으로 이어집니다. 예를 들어, 얼굴 인식 시스템이 주로 백인의 얼굴을 사용하여 훈련된다면 소수 집단의 얼굴을 인식하는 데 어려움을 겪어 억압이 지속될 수 있습니다.

우리 일을 대신하는 로봇

ChatGPT 및 Google Bard와 같은 챗봇의 개발로 인해 AI와 관련된 완전히 새로운 걱정거리가 생겼습니다. 바로 로봇 이 우리의 일자리를 앗아갈 위험입니다. 우리는 이미 기술 산업의 작가가 AI로 대체되고 있고, 소프트웨어 개발자는 봇 때문에 일자리를 잃을까 봐 걱정하고 있으며, 회사에서는 인간 작가를 고용하는 대신 ChatGPT를 사용하여 블로그 콘텐츠와 소셜 미디어 콘텐츠를 만들고 있습니다.

세계경제포럼(World Economic Forum)의 2020년 일자리의 미래 보고서 에 따르면 AI는 2025년까지 전 세계적으로 8,500만 개의 일자리를 대체할 것으로 예상됩니다. AI가 작가를 대체하지는 않더라도 이미 많은 사람들이 AI를 도구로 사용하고 있습니다. AI로 대체될 위험이 있는 직업에 종사하는 사람들은 생존을 위해 적응해야 할 수도 있습니다. 예를 들어 작가는 AI 프롬프트 엔지니어가 되어 이러한 모델로 대체되기보다는 ChatGPT와 같은 도구를 사용하여 콘텐츠 생성을 수행할 수 있습니다.

미래의 잠재적 AI 위험

이것들은 모두 즉각적이거나 다가오는 위험이지만, 미래에 우리가 볼 수 있는 AI의 가능성은 낮지만 여전히 가능한 위험은 어떻습니까? 여기에는 인간에게 해를 끼치도록 프로그래밍된 AI(예: 전쟁 중에 살해하도록 훈련된 자율 무기)가 포함됩니다.

그러면 AI가 프로그래밍된 목표에만 한 마음으로 집중하여 인간이 이를 막으려고 노력하더라도 어떤 대가를 치르더라도 그 목표를 달성하려고 시도하면서 파괴적인 행동을 개발할 위험이 있습니다.

Skynet은 AI가 지각을 갖게 되면 어떤 일이 일어나는지 가르쳐주었습니다. 하지만 Google 엔지니어인 Blake Lemoine은 2022년 6월에 Google의 인공지능 챗봇 생성기 LaMDA는 지각력이 있었습니다. 이라는 사실을 모든 사람에게 납득시키려고 노력했을지 모르지만 다행히 현재까지 그것이 사실임을 시사하는 증거는 없습니다.

AI 규제의 과제

202년 5월 15일 월요일 오픈AI(OpenAI) CEO 샘 알트만(Sam Altman)이 인공지능(AI)에 관한 첫 번째 의회 청문회에 참석했다. 에 "이 기술이 잘못되면 상당히 잘못될 수 있습니다."라고 경고했습니다. OpenAI CO는 규제를 선호한다는 점을 분명히 밝혔으며 청문회에 자신의 아이디어를 많이 제시했습니다. 문제는 AI가 너무 빠른 속도로 진화하고 있어 규제부터 시작해야 할지 알기 어렵다는 점이다..

의회는 소셜 미디어 시대 초기에 저지른 것과 같은 실수를 반복하지 않기를 원하며 척 슈머 상원 원내대표와 함께 전문가 팀은 이미 기업이 교육에 사용한 데이터 소스를 공개하도록 요구하는 규정을 마련하고 있습니다. 모델과 그들을 훈련시킨 사람. 하지만 AI가 어떻게 규제될 것인지가 명확해지기까지는 시간이 좀 걸릴 수 있으며, 의심할 바 없이 AI 기업들의 반발이 있을 것입니다.

일반인공지능의 위협

인간(또는 동물)이 수행할 수 있는 모든 작업을 수행할 수 있는 일반 인공지능(AGI)이 탄생할 위험도 있습니다. 공상과학 영화에서 자주 언급되는 것처럼, 그러한 창조물이 탄생하려면 아직 수십 년이 걸릴 것입니다. 그러나 우리가 AGI를 만든다면 인류에게 위협이 될 수 있습니다.

스티븐 호킹(Stephen Hawking), 빌 게이츠(Bill Gates), 심지어 전 Google CEO인 Eric Schmidt를 포함하여 많은 공인들이 이미 AI가 인간에게 실존적 위협을 가한다는 믿음을 지지하고 있습니다. 그는 "인공 지능은 실존적 위험을 초래할 수 있으며 정부는 어떻게 해야 하는지 알아야 합니다. 사악한 사람들이 기술을 오용하지 않도록 하기 위해서입니다.”

그렇다면 인공지능은 위험하며 이점보다 위험이 더 큽니까? 배심원단은 아직 이에 대해 판단하지 않고 있지만, 우리는 이미 지금 우리 주변에 있는 일부 위험에 대한 증거를 보고 있습니다. 다른 위험은 조만간 실현될 가능성이 거의 없습니다. 하지만 한 가지는 분명합니다. AI의 위험성을 과소평가해서는 안 된다는 것입니다. 향후 위험을 최소화하고 완화하기 위해 처음부터 AI를 적절하게 규제하는 것이 가장 중요합니다.

.

관련 게시물:


31.05.2023