새로운 질서 독후감 요약(마무리) #696
yoonminsang
started this conversation in
Today I Learned
Replies: 1 comment 1 reply
-
|
뭔가 어려운 책인 것 같군용... |
Beta Was this translation helpful? Give feedback.
1 reply
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
위 한 문장만으로 이 책을 읽을 가치가 있다고 느꼈다. 나는 슬픈 영화를 봐도 울지 않는 사람인데 눈물이 날뻔했다. 나는 이성의 현실주의에 가까운 사람이다. 그래서 비판적 사고와 긍정적 사고를 하는 사람이라고 생각해왔다. 어쩌면 내 긍정적 사고는 마음의 이상일지도 모른다. 그리고 비판적 사고는 이성의 현실주의와 맞닿아있는 것 같다.
우리 모두는 이상과 현실을 모두 바라본다. 사람에 따라 이상과 현실을 바라보는 비중이 다를뿐이다. 인간이란 원래 그렇지만 최근들어 이분법적인 사고와 그에 따른 갈등이 늘어나는 것 같다. 모두 장단점이 있으니 서로 잘 융화되어서 잘 지냈으면 하는 작은 바람이 있다. 하지만 나는 이미 가치관이 다르다는 이유만으로 전쟁을 하는게 이해되는 순수하지 않은 어른이 되었다. 이 작은 바람도 이상이고 전쟁은 현실일뿐이다.
책을 읽다보니 몇몇곳(탐사, 지구 행성 너머)에서 '인간의 호기심은 막을 수 있는걸까?'라는 생각이 뇌리를 스쳤다. 나는 인간의 호기심은 무엇도 막을 수 없다고 생각한다. 그리고 그건 다양한 역사가 증명한다. 진격의 거인이라는 만화에서 '인간의 탐구심은 누군가가 막는다고 해서 멈출 수도 있는 게 아니오', 원피스라는 만화에서 '실체할지도 모르는 원피스를 찾아 목숨을 걸고 항해하는 것' 등 여러 매체에서도 이를 다루고 있다. 그리고 이게 인류(집단, 개인)를 발전시키기도 멸망시키기도 한다는 것은 너무나도 자명한 사실이다. 그리고 AI가 이 인간의 호기심을 위험으로부터 막을 유일한(?) 수단이다.
사실 지금 정치도 마찬가지다. 많은 사람들은 자신에게 이득을 가져다주는 정치인에게 투표한다. 세대, 성별, 지역, 직업, 재산 등에 따라 자신에게 이득이 될지 손해가 될지가 명확하다. 그리고 미래를 생각하기보다는 지금 자신의 상황이 더 나아지기 위해 투표한다. 그리고 정치인은 이를 이용한다. 나는 이런 행동이 너무나도 당연하다고 생각하고 지적하고 싶지도 않다. 누군가는 나라를 위해, 미래를 위해 자신의 손해를 감수하지만 당연하게도 이런 선택을 하는 건 소수다. 만약 정말 AI가 정말 뛰어나게 발전해서 미래를 위해 옳은 의사결정을 한다고 해도, 이걸 받아들이는건 어려울 것이다. 그리고 이런 갈등을 조율하는게 인간의 역할이 아닐까 싶다. 그 조율은 투표가 될 수도 있고 강압이 될 수도 있다. 마치 핵폭탄의 개발을 막고 있는 지금의 미국처럼.
현실주의만으로 세상이 흘러가기는 어렵다. 아니 어쩌면 이건 현실주의가 아니라 이상주의라고 봐야될수도 있다. AI가 발전해서 미래의 인류를 위해 우리 세대가 희생한다면 이건 이상주의적인걸까 현실주의적인걸까?
이 책에서는 AI의 이성 통치는 감성이 부족한 문제가 있다고 말한다. 나는 조금 생각이 다르다. 감성적인 부분도 이성적으로 판단할 수 있지 않을까? 이성적으로 상대방의 기분, 감정을 파악하고 논쟁을 승리로 이끄는 행동은 현실 세계에서 꽤나 필요한 방법이다. 그리고 최근 AI의 추론을 살펴보면 내 감정을 생각해서 말하려고 하는게 보인다. 정말 감수성이 필요한 영역까지 가능하냐고 물어볼 수 있는데 나는 그것도 가능하다고 생각한다. 요즘은 MBTI T와 F로 얘기를 많이 하는데 T는 F를 진정으로 공감할 수 없다고 한다. 근데 그건 T의 체력 부족, 능력 부족이라고 생각한다. 설령 나와는 다른 생각을 가지고 있다고 해도 상대방의 생각을 이성적으로 분석하면 그 감정을 이해하고 적절하게 반응할 수 있다. 결국 AI도 충분히 감성적 영역을 다룰 수 있다고 생각한다.
나도 비슷한 가치관을 가지고 있다. 나는 항상 극단적으로 생각하지 않으려고 한다. 그리고 이건 업무할 때 특히 크게 느껴진다. 하지만 당연하게도, 완전 중앙에 있을 수는 없고 양자택일을 해야하기도 한다.
이건 면접에서도 자주 나오는 질문이다. 'A와 B중 어느것을 선호하시나요?'라는 질문에 나는 '상황에 따라 다르다'고 답변한다. 당연히 면접관은 더 구체적으로 물어볼거고 나는 그 상황을 더 구체화시켜서 이때는 A, 이때는 B를 선택한다고 말한다. 면접관이 한 번 더 가정을 해서 물어보는 경우가 있는데 이때는 99% 확률로 애매한 가정을 한다. 나는 그때도 상황을 구체화시켜서 답변을 하고, 개인적인 선호도를 얘기하기도 한다. 물론 정말 확실하다고 생각하는 질문이라면 특정 답변을 하기도 한다.
아직 경험이 많지는 않지만 내가 느꼈을 때 현재 조직의 문제를 해결하기 위해, 팀원의 이전 (좋은 or 안좋은)경험으로 인해 극단적인 결정이 이뤄지는 경우가 많은 것 같다. 그래서 나는 조금 더 객관적인 사람이 되려고 노력한다. 군대에서는 문제가 생기면 그냥 그 문제가 발생할 상활 자체를 없애버린다. 정치에서도 마찬가지다. 사고가 터져서 전체 수학 여행을 막는다던가, 특정 사고가 바이럴되면 극단적인 결정이 이루어진다던가 너무나도 많은 예시가 있다.
이성적인 영역과 감성적인 영역, 이상주의와 현실주의 모두 다 중요하다. 중요한건 그 극단속에서 적절한 중간 지점을 찾고 최적의 해결책을 찾아내는 것이다.
AI의 발전으로 언젠가 유전자 편집이 가능해질지도 모른다. 20년전에 성형수술이 한참 화재가 되었을 때 비슷한 얘기가 나오기도 했다. '모든 사람이 다 똑같이 성형수술로 잘생기고 예뻐지면 어떤 세상일까'라는 얘기였는데 아마 그때는 부작용이 있기도 하고 개성이라는게 중요하다고 생각해서 반대했던 것 같다. 근데 앞으로의 미래는 외모뿐만 아니라 질환, 성격, 능력까지 바꿀 수 있을지도 모른다.(가능한지, 유전자 질환의 문제가 없는지 등등은 다 AI가 해결해준다고 가정)
나는 인간의 가치가 외적인 모습보다는 내적인 모습에서 나온다고 생각한다. 그래서 외모를 자유자재로 바꿀수있는것에 대한 거부감은 덜하다. 근데 성격, 지적 능력, 가치관까지 바꿀 수 있다면 이건 어떻게 되는걸까. 이건 내가 원하는 게임 캐릭터를 만드는 것과 비슷하다고 느껴진다. 근데 게임 캐릭터는 내가 조종할 수 있다. 그런데 AI를 이용해서 내가 나를 조종한다면 어떻게 되는걸까. 내 이전 기억은 가지고 있지만 성격이 바뀌었기 때문에 이전의 가치관은 현재의 나의 가치관과 전혀 무관할 수 있는건가. 여러가지로 혼란스럽다. 누구나 잘생기고 똑똑하고 이성적이면서 감성적인걸 원한다. 당연히 조금씩 그 정도는 다를거다. 그러면 진짜 게임 캐릭터처럼 능력치를 1씩 조절하는 느낌인걸까? 당연히 이 능력치도 좋고 나쁨의 능력치가 아니라 mbti T VS F 같은 능력일 것이다. 잘 모르겠다. 나는 너무 혼란스럽다. 결국 그렇게 되면 인간은 무엇인지 철학적 질문에 빠지게 된다.
AI 관련해서 얘기하던 중에 환경에 대한 얘기가 나온적이 있었다. 나도 환경에 큰 관심을 가지고 있는 사람은 아니지만 AI로 인해 걱정이 되는건 사실이다. 나는 지구공학 문제까지 AI가 해결한다고 생각해본적이 없다. '이렇게 접근을 하는게 맞는건가?'라는 생각이 든다. 오히려 AI의 발전으로 인해 환경문제가 더 심각해지고 이걸 해결하기 위한 연구, 지원이 적극적으로 이루어지고 이걸 해결하는데 AI를 적극적으로 활용할 수 있게 도움을 주는 방향이 맞는거아닐까? 그냥 AI가 발전해서 해결할거니까 괜찮다는 시각은 좀 위험해보이기도 한다. 이게 마음의 이상주의라는걸까? 어느정도 저자들의 생각을 알것같다.
인간은 불완전함으로써 완성된다. 완벽한건 인간이 아니라고 생각한다. 그리고 그 완벽하지 않은걸 보완해주는게 기계, AI라고 생각한다. 그리고 이 기계, AI도 완벽하지 않기 때문에 사람이 보완해줘야한다. 이는 책에서 얘기한 공진화의 설명과 일치한다. 생명공학적인 변화가 없어도 이미 사람과 기계는 공진화를 통해 발전하고 있다.
코딩 언어도 기계어, 어셈블리어, C언어 등을 거쳐 파이썬, 자바같은 인간이 다루기 쉬운 언어로 발전해왔다. 인간을 다른 무언가에 맞추는 것은 정말로 큰 변화일 것이다. 나도 원하지 않는다. 나를 도와줄 기계를 원하지 내가 기계가 되는걸 원하지는 않는다.
최근 챗봇관련한 작업을 하고 있는데 나도 비슷한 문제에 부딪혔다. 사실 내가 푸는 문제는 도덕성, 선과 악을 구분할만큼 어려운 문제는 아니다. 현실 세계의 문제를 추상화시키고 상황에 맞는 적당한 가이드만 해주면 된다. 근데 이 가이드라는게 사람마다 생각이 다르다. 고작 이정도의 일도 쉽게 판단할 수 없는데 선악에 대한 문제는 판단하는게 불가능에 가깝다.
나는 그냥 승자가 '선'이라고 생각한다. 그리고 도덕성이라는것도 명확히 할 수 없다. 이건 영원히 불가능하다고 생각한다. 인간이 최종 발전을 한다면 이 판단이 가능해질지도 모르겠지만 나는 그것도 가능하지 않다고 생각한다. 인간은 영원히 발전할거라고 생각한다. 언젠가 끝이 있을거라고 말할지 모르지만 수학에서 무한대의 개념이 존재하듯이 이것도 마찬가지라고 생각한다.
그래서 지금까지의 역사, 지속적으로 발생하는 역사적 사건들을 학습시켜서 다양한 관점과 AI의 추천점수 정도만 제공하면 어떨까 싶다. 이 책에서 계속 얘기했듯이 최종 결정은 AI가 아니라 인간이 해야한다.
결국 이게 이 책의 핵심적인 내용이다. 존엄성을 AI에게 주입하고(이건 내가 감성을 AI에게 주입할 수 있다는 것과 유사하다.) 극단적이지 않은 중간 입장에서 냉철한 낙관주의(마음의 이상주의와 이성의 현실주의)로 새로운 시작을 받아들이면 된다.
책을 잘 읽지않는 나에게 이 책은 꽤나 어려웠다. 하지만 이 책의 스타일을 깨닫고 적응한 뒤에는 쉽지는 않지만 재밌게 읽었다. 철학, 역사 등으로 이야기를 시작하고 어느샌가 독자는 내용에 빠져들게 된다. 그리고 어느샌가 AI와 무관하게 글을 읽다가 어느순간 AI와 이야기를 연결시킨다. 나는 그 때 '아 이거였구나.' 라는 생각이 들면서 같이 고민하면서 이야기에 빠져든다. 직업 특성상 명확한 문서를 쓰는 경우가 많은데 때로는 장문이지만 빠져들게 하는 글, 화법을 사용해야하는 경우도 있다. 나는 본래 커뮤니케이션 스킬이 좋은 사람은 아닌데 그동안 명확한 커뮤니케이션을 하기 위한 노력을 많이 해왔다. 그래서 그런지 간결하고 명확한 글쓰기에는 익숙하지만, 장문으로 몰입감을 주는 글이나 발표 능력은 부족한 것 같다. 이런 책을 많이 읽고 깊은 대화를 많이 나누면 조금 개선이 되려나 싶은 생각이 든다.
독후감을 오랜만에 써보는데 잘 쓴건지 모르겠다. 책의 전체적인 흐름이 아닌 특정 문구에만 너무 집중한게 아닌가 싶은 생각도 든다. 이 경험이 조금 더 쌓여서 실무에도 도움이 되기를 기대한다.
Beta Was this translation helpful? Give feedback.
All reactions