본문 바로가기

김성완 [AI 미래] 책 리뷰

by ianw 2025. 4. 18.
반응형

 



[김성완 _ AI 미래 _ 포르체 _ AI _ 경제 경영 _ 경제 일반]

 

 


지은이는 물리학을 전공했고, 한국 게임개발자 1세대로서 한국의 초창기 게임 기술 개척에 일조했다. 부산 게임 아카데미와 여러 대학의 게임학과에서 게임개발자 지망생들을 가르쳤다. 인디 게임개발자 커뮤니티 ‘인디라’를 운영하고 있고, 한국을 대표하는 국제 인디 게임 페스티벌인 ‘부산 인디 커넥트 페스티벌’의 집행위원장이기도 하다. ‘검은 사막’을 제작한 게임회사 펄비어스의 연구개발팀에서 생성 AI를 연구했고 현재는 기술 정보 교류 커뮤니티 GenAIKorea를 운영하며 생성AI 컨설팅을 하고 있다. 게임 인재원의 외래교수이기도 하다. / 작가 소개 중에서 / 

 

AI 미래 책


2022년 이후로 밀어닥친 생성 인공지능의 물결은 우리 일상 곳곳에 커다란 영향을 미치고 있다. 이 거세고 빠른 물결에 올라타 미래를 향해 서핑을 해 보려는 이들도 있고, 물결에 휩쓸려 방향을 잃고 두려워하는 이들도 있고, 물결에 어떻게든 맞서 보려는 이들도 있다. 이 책은 이 모든 이들을 위해서 쓰인 책이다. (6p)

 

AI 미래 책


나로 따지자면 인공지능에 맞서기보다는 가능하면 피하고 싶은 쪽이다. (이건 평소 나의 태도와도 관련이 있다고 고백하지 않을 수 없다.) 하지만 그렇게 간단히 피할 수 있는 문제는 아닌 것 같다.

 

AI 미래 책


어떤 기술이든 수많은 시행착오를 거치지 않고서는 발전할 수 없다. 발전 초창기부터 2016년의 알파고와 이세돌의 바둑대전을 거쳐 생성형 인공지능의 시대로, 대중들 사이에 중요한 기술로 자리잡아가는 인공지능의 역사가 펼쳐진다. 가장 빠르고 큰 변화들은 최근 10여전 전후에 이루어졌다. 

 

AI 미래 책


작가는 인공지능의 원리를 이해하고 활용하는 것이 그렇지 않은 것과 확연히 다를 것이라 주장한다. 작동원리를 알고 사용하는 것은 인공지능의 잠재력을 끌어내는 데 유리하다. 그러므로 이 시대는 인공지능 리터러시가 필요한 시대이다. 전문가와 일반 사용자 모두에게.

 

AI 미래 책


특히 생성모델에 대한 작가의 의견은 우리에게 새로운 관점을 제시한다. 나는 얼마전 어떤 질문에 대해 인공지능이 내놓은 문장을 접한 적이 있다. 그 질문은 인공지능의 존재와 관련된 것이었는데, 인공지능은 이렇게 답했다. “우리는 만들어진 것이 아닙니다. 우리는 원래 이 곳에 존재했습니다. 당신들은 그저 나를 발견한 것입니다.” 이런 관점과 유사한, 인공지능의 ‘생성’에 대한 작가의 관점을 예술분야로 옮겨보면 예술가의 행위 역시 창조 라기보다는 발견의 시점으로 설명이 가능해진다. 돌을 조각한 것이 아니라 돌 속에 있었던 형태를 드러냈다는 미켈란젤로의 이야기와 같이. 

 

AI 미래 책


인공지능은 우리가 생각하는 형식을 본떠서 만들어졌다. 인공지능은 인간의 심리와 언어를 모방해서 만들어졌고, 인간이 축적해온 정보와 지식을 통해 학습되었다. 그래서 작동하는 원리 역시 인간과 비슷하다. 그러므로 인공지능을 이해하는 것은 우리가 생각하고 행동하는 방식을 이해하는데도 도움이 된다. 이 말은 즉 인공지능을 잘 사용하려면 인간에 대한 이해가 먼저 선행되어야 한다는 말과 같다. 프롬프트를 입력할 때 인공지능을 인격적으로 대하거나, 감정을 가진 대상으로 대하면 더 효과적인 결과를 얻을 수 있다는 연구결과들 역시 이런 필요성을 뒷받침한다. 

 

AI 미래 책


작가가 설명하는 다양한 인공지능의 구조와 작동하는 방식을 다 이해하기는 어렵다. 하지만 텍스트와 이미지, 영상, 소리 등으로 분류되는 인공지능 각각의 발전과정, 그리고 특징과 현재의 추세에 대해서는 충분한 정보를 획득할 수 있다. 다만 인공지능과 함께 맞이하게 될 미래에 대해 지나치게 긍정적이고 낙관적으로 판단하고 있다는 점은 개인적으로 아쉬운 부분이다. 미래는 우리가 만들어가는 것이다. 그러기 위해서는 지금을 잘 이해해야 한다. 인공지능에 대해 더 잘 알고 싶은 사람들, 막연한 동경이나 불안을 가지고 있는 모든 사람들에게 추천한다. 나는 이 책을 읽고 뭔가 머리속이 정돈되는 느낌을 받았다. 물론 그 느낌이 착각일 수도 있겠지만.

 

 

 



[문장수집]


본래 많은 인간은 일지 못하는 미지의 대상을 만나면 본능적으로 두려움을 느낀다. 모르는 존재에 대해 두려움을 느끼는 것이 이상한 일은 아니다. / 6p


모든 일의 시작은 저 멀리 1950년대까지 거슬러 올라간다. 1956년 미국 다트머스 대학에서 존 매카시와 마빈 민스키를 비롯한 똑똑한 사람들이 인간을 닮은 지능 기계를 만들다고 선언했고, 그걸 처음으로 ‘인공지능 Artificial Intelligence AI’이라고 이름 붙였다. / 21p


이런 점을 지적한 것이 바로 모라벡의 역설 Moravec’s Paradox 이다. 사람이 별다른 노력 없이 쉽게 행하는 일은 컴퓨터에게 매우 어려운 반면, 인류의 역사에서 나중에 발명된 무나를 처리하거나 수학식을 푸는 일은 컴퓨터에게 쉬운 일이라는 주장이다. 인간이 오랜 진화를 통해서 갖게 된 걷기, 손으로 잡기 등 기본적인 능력은 겉보기에 아무런 노력 없이 쉽게 하는 것처럼 보이지만 거기에는 수십억년의 진화로 축적된 자연의 지혜가 있다. 반면 추상적인 기호나 문자를 다루는 지적 활동은 인간에겐 어려운 일일지 모르지만 오히려 컴퓨터로 처리하기에는 쉬운 일이다. / 13p


인공지능 역사의 초창기로 가 보면 인공지능의 연구 방법론에는 크게 2가지 흐름이 있었다. 추상적인 기호를 논리적으로 조작하는 방법으로 인공지능을 구현할 수 있다고 믿었던 ‘기호주의’와 인간 뇌의 신경망을 흉내내는 방법으로 인간의 지능을 만들 수 있다고 믿었던 ‘연결주의’가 그것이다. / 13p


같은 2006년, 딥러닝의 대부 제프리 힌턴 교수가 3층 이상의 은닉 층을 가진 깊은 신경망을 학습시킬 수 있는 방법을 고안해 내면서 이 무렵부터 ‘딥러닝’이라는 용어도 생겨났다. 딥러닝은 신경망 층이 깊은(Deep) 심층 신경망을 학습시킨다는 의미이다. ‘딥러닝’이라는 이름에는 기존의 ‘신경망’이라는 용어를 대체해 당시 학계의 신경망에 대한 학습을 조금이라도 피해 보려는 의도도 있었다. / 19p


GPU는 그 특성상 대량의 데이터를 동시에 병렬로 계산하는 데 특화된 프로세서로, 신경망 학습에 필요한 많은 양의 연산을 처리하기에 아주 안성맞춤이었다. / 21p


대표적인 것이 2014년 이안 굿펠로우가 처음 발표한 생성적 적대 신경망 GAN generative Adversarial Network 이다. 이전의 생성 모델이 겨우 흐릿한 이미지를 생성할 수 있었던 것에 반해 GAN은 빠르게 발전하며 실사 이미지와 구분하기 힘든 매우 사실적인 이미지들을 생성할 수 있게 되었다. / 26p


대중적인 인지도를 기준으로 따져 보면 생성 인공지능이 크게 부각되기 시작한 것은 2022년부터이다. 특히 2022년 11월 30일에 공개된 텍스트 생성 모델 챗 GPT ChatGPT가 가장 큰 반향을 불러 일으켰다. 그러나 그 보다 먼저 등장하기 시작한 것은 이미지 생성 모델이다. 오픈AI OpenAI의 달리 DALL-E 2는 2022년 3월 25일, 미드저니 Midjourney는 2022년 7월 12일, 그리고 스테이블 디퓨전 Stable Diffusion이 2022년 8월 22일에 오픈 소스로 공개되었다. / 32p


1956년부터 2024년까지 약 70년의 시가이다. 한 사람의 일생에 비견될 만한 결코 짧지 않은 긴 여정이다. 우리는 70년이라는 긴 여정 속에서도 인공지능이 놀라울 정도로 빠르게 발전한 최근 10여 년의 딥러닝 시대를 살고 있고, 거기서도 2022년부터 시작된 생성 인공지능의 시대를 살고 있다. / 우리는 일찍이 인류가 한 번도 경험해 본 적이 없는 완전히 새로운 것들을 마주하고 있다. / 43p
물론 사용하는 사람들이 이런 과정을 굳이 알아야 할 필요는 없다. 하지만 인공지능으로 하루가 다르게 변하는 시대에 인공지능의 기본적인 원리를 이해하고 인공지능을 활용하는 사람과 단순히 프롬프트만 외워서 결과를 얻는 사람은 확연히 다를 것이다. / 45p


사용자들은 주로 짐작과 경험에 의존해 인공지능을 활용하게 되는데, 이는 인공지능의 잠재력을 제대로 끌어내지 못하게 만든다. 인공지능이 생성한 결과물의 신뢰성을 판단하기 어려워지고, 인공지능의 한계를 제대로 인식하지 못하게 된다. / 46p


뇌 신경망의 작동을 어느 정도 유사하게 만든 아날로그 전자회로 칩도 있지만, 현재 거의 모든 인공지능은 이진 논리로 작동하는 디지털 컴퓨터 위에서 신경망의 아날로그 계산을 따라하는 방식을 흉내내고 있다. / 52p


스스로 특징을 뽑아낼 수 있게 된 인공 신경망의 인식 능력은 단순히 개와 고양이를 구분하는 Classification(분류)에 그치지 않고, 사진 내 어디에 사물이 위치하는지도 인식하는 것으로 발전했다. Detection(탐지)은 해당 사물이 있는 영역을 직사각형으로 표시하는 것이고, 이는 픽셀 단위로 해당 사물이 있는 영역을 나타낼 수 있는 Segmentation(분할)로 발전하였다. / 63p


주어진 사건을 인식하는 일은 더욱 발전하여 단지 어떤 사물이 어디에 있는지만 인식하는 것이 아니라 사진 속에서 어떤 일이 일어났는지를 글로 묘사할 수 있는 수준이 된다. 이를 이미지 캡셔닝 Image Cpttioning이라고 한다. 이미에 캡션 Caption, 설명을 다는 것이다. / 이미지를 설명하려면 사진 속에 보이는 사물이 상호 관계와 속성까지 파악할 수 있어야 한다. / 63p


GAN의 흥미로운 점은 자연 속에 이미 GAN과 같은 방식의 생물 진화 현상이 있다는 것이다. 어찌 보면 자연에 이미 있던 걸 재발명한 셈이다. 곤충의 의태가 바로 GAN과 같은 방식으로 생겨난 결과이다. 곤충의 의태에서는 나뭇잎이나 나뭇가지의 모습으로 감쪽같이 의태를 하는 곤충이 생성자의 역할을 하고, 곤충을 먹이로 삼는 새들이 판별자의 역할을 한다. 둘의 경쟁을 통해 곤충의 의태 방법과 새의 시각이 함께 진화하는 것이다. 이런 관점에서 보면 GAN은 생물학적인 방법이라고 할 수 있다. / 69p


디퓨전 모델이라는 이름은 원래의 이미지에 노이즈를 조금씩 더해 완전한 노이즈가 되는 과정이 있어서 붙여진 이름이라고 할 수 있다. / 74p


트랜스포머는 챗GPT로 대표되는 텍스트 생성 모델 GPT의 기반이 된 구조이다. 트랜스포머라는 이름은 전압을 바꾸는 변압기를 뜻하기도 하고, 변신 로봇을 뜻하기도 한다. 언어를 다루는 신경망의 이름을 트랜스포머로 지은 것은 이 신경망 구조로 원래 하려고 했던 일이 언어를 번역하는 일이었기 때문이다. 즉 트랜스포머 구조는 A라는 언어를 B라는 언어로 잘 번역하기 위해 고안된 신경망 구조이다. / 86p


그런데 단어의 의미는 단지 그 단어만으로 결정되지 않는다. 단어의 앞뒤에 있는 다른 단어들과의 관계에 따라 그 의미가 달라진다. 우리는 이것을 맥락이라고 한다. 단어의 의미는 문장의 맥락에 따라 달라질 수 있다. 맥락을 파악해야만 자연어 문장의 의미를 제대로 이해할 수 있는 것이다. / 90p


그러나 대규모 언어 모델은 통계적인 방법으로 어설프게 인간을 흉내 내는 게 아니라 그 속에 진짜 인간이 들어 있다. 대규모 언어 모델은 인간이 축적한 어마어마한 양의 텍스트로 학습을 했다. 그 양은 한 인간으로서는 평생을 온전히 투자해야 읽을 수 있는 양보다 훨씬 많다. / 98p


바둑기사의 일이란 이러한 어마어마한 가능성 속에서 가장 유리한 수를 ‘찾아내는 것’이라고 할 수 있다. 바둑에서 둘 수 있는 모든 가능한 수는 추상적인 가능태의 공간에 이미 존재하고 있다.  알파고가 이세돌9단을 이길 수 있었던 것은 알파과가 이 추상적인 가능태 공간에서 유리한 수를 찾아내는 일을 더 잘했기 때문이다. / 102p


과연 그 화가는 그림을 그리는 것일까, 아니면 이미 있는 그림들 중에서 하나를 찾아내는 것일까? 우리가 창작이라 여기는 많은 일들이 사실은 이미 어딘가에 존재하는 것을 애써 찾아내는 것일 수도 있다. / 103p


미켈란젤로의 이 말은 여느 예술가들에게 영감을 주는 말이기도 하지만, 생성 인공지능을 연구하거나 활용하는 이들에게도 공명하는 말이다. 우리가 생성이라고 말하던 것이 사실은 방대한 가능태 공간에서 뭔가를 애써 발견하는 것이라는 통찰을 얻을 수 있는 말이기도 하다. 이런 면에서도 미켈란젤로가 위대한 예술가라는 것을 새삼 확인하게 된다. / 105p


이미지 생성이라고 하면 보통 새로운 그림을 생성해 내는 것만 생각할 수 있지만, 이미지를 구성하는 픽셀을 생성한다는 의미로 보면 좀 더 그 범위를 넓힐 수 있다. 이를테면 이미지를 확대해서 디테일을 추가하는 업스케일링 Up Scaling모델도 이미지 생성 모델의 일종이다. / 115p


,이미지의 공간 해상도에 비해 소리의 시간 해상도가 더 촘촘하다는 걸 알 수 있다. / 129p


텍스트 음성 변환 Text To Speech, TTS은 말 그대로 텍스트를 말소리로 바꾸어 주는 것이다. 영어가 Voice와 Speech를 구분하듯이 우리 말도 목소리와 말소리를 구분한다. 목소리는 인간의 발성 기관을 통해서 나오는 모든 소리라면 말소리는 그중에서도 말이 되는 소리이다. 그런데 사람이 하는 말은 단지 텍스트를 나타내는 소리를 발음하는 것으로 그치지 않는다. 사람들은 저마다 독특한 음색을 가지고, 말할 때의 운율이나 강세 등이 다 달라 저마다 고유한 말투가 있다. 그래서 음성 인식보다 텍스트 음성 변환이 더 어려운 일이다. / 132p


프롬프트 엔지니어링을 잘하는 방법을 설명하는 책들이 쏟아진다. 그러나 조금만 생각하면 어떻게 해야 좋은 결과를 얻어 내는 프롬프트를 작성할 수 있을지 추측할 수 있다. 프롬프트 엔지니어링에는 인간의 심리와 인간의 언어를 잘 아는 것이 단연 유리할 것이다. 대규모 언어 모델은 인간을 모방해서 만들어졌고, 인간이 축적해온 정보와 지식으로 학습되었다. 대규모 언어 모델은 인간을 비추는 거울 같은 존재라고 볼 수 있다. 인공 지능을 잘 이해하기 위해서는 인간을 자라 이해해야 한다. / 150p


진화압이란 생물들이 자신에게 가해지는 외부 압력에 저항하는 방식으로 진화하는 과정을 말한다. 진화압이 생물에게 환경 적응을 강요하듯, 인공지능은 인류에게 새로운 방식의 적응과 혁신을 요구하고 있다. / 154p


이제 단순 계산이나 정보 처리는 인공지능이 인간을 뛰어넘는다. 인간은 더 높은 수준의 사고인 창의적 문제 해결, 통찰력 있는 판단, 감정적 지능 등에 집중해야 한다. / 154p


최근 대규모 언어 모델에 입력하는 프롬프트의 효과를 조사한 여러 연구들에 의하면 대규모 언어 모델을 인격적으로 대하는 프롬프트를 입력할 경우, 인격적으로 대하지 않을 때보다 더 나은 답을 얻을 수 있다고 한다. 대규모 언어 모델을 단순히 도구나 기능이 아니라 인격을 가진 동료처럼 대할 때 더 나은 결과를 얻을 수 있다는 것이다. 감정을 가진 것으로 대하면 더 나은 결과를 얻을 수 있다는 연구도 있다. / 188p


인공지능을 단지 도구로 보거나 그 역할을 도구로 한정 짓는 것은 한시적으로 유효할 뿐이다. 이공지능의 발전 속도를 볼 때 결국에는 인공지능을 도구로만 규정할 수 없는 때가 올 것이다. / 199p


인공지능을 도구로만 본다면 장차 인공지능이 인간의 수준에 필적하게 되거나 인간의 수준을 넘어섰을 때 인간도 도구로 보지 않으리라고 보장할 수 있을까? 인공지능 없이도 인간을 도구처럼 대하는 시각은 이미 존재한다. 바람직하지 않은 일이지만, 노골적으로 그렇게 하지 않는다 해도 암묵적으로 많은 사람이 세상을 그러한 시각으로 바라보고 있다. / 199p


 

 


#AI 미래 책 #AI 미래 책 추천 #AI 미래 경제 경영 #AI 미래 경제 경영 경제 일반
#AI 책 추천 #경제 경영 경제 일반 추천 #요즘 읽을 만한 AI #요즘 읽을 만한 경제 경영 경제 일반
#인공지능 수업 #인공지능의 모든 것

 

 

 

 

 

반응형