
요즘 챗GPT 안 쓰는 분 있나요? 아침에 일어나서 업무 이메일 초안 작성하고, 회의록 정리하고, 심지어 저녁 메뉴 추천까지 AI한테 물어보는 시대잖아요. 근데 문득 이런 생각 드시죠? '나 이러다 AI 없으면 진짜 아무것도 못하는 거 아냐?'
전 세계 전문가들이 경고하고 있어요. AI를 잘못 쓰면 오히려 우리 판단력이 퇴화할 수 있다고요. 그래서 오늘은 정말 중요한 이야기를 들려드릴게요.
싱가포르 출신 사업 전략가이자 작가인 세드릭 친이 정리한 'Vaughan Tan Rule(본 탄 룰)'이라는 게 있어요. 이게 뭐냐면요, AI를 현명하게 쓰면서도 내 능력은 더 키울 수 있는 원칙이에요.
세드릭 친은 커먼코그(Commoncog)라는 비즈니스 인사이트 플랫폼을 운영하는 분인데요, 실전 비즈니스에서 바로 쓸 수 있는 실용적인 아이디어를 전문으로 다루시는 분이에요.
AI한테 절대 맡기면 안 되는 것
본 탄 룰의 핵심은 진짜 간단해요.
"주관적 가치 판단을 AI에게 맡기지 마라. 단, 정당한 이유가 있다면 그 이유를 명확히 하라."
본 탄(Vaughan Tan)은 컨설턴트이자 경영학 교수, 작가로 활동하는 분이에요. 현재 전 세계 여러 교육 기관에서 AI 교육 정책을 만드는 일을 하고 계시죠. 그가 최근 연구를 통해 발견한 사실이 있어요. AI는 아직 '의미를 만들어내는' 능력이 없다는 거예요.
의미 만들기가 뭐냐고요? 쉽게 말하면 이런 거예요.
무언가가 좋은지 나쁜지 판단하는 것. "이 다이아몬드 반지 정말 아름답다" 또는 "분쟁 지역에서 캐낸 다이아몬드는 윤리적으로 문제가 있어"라고 결정하는 거죠.
어떤 일이 할 가치가 있는지 결정하는 것. "지금 중국 시장에 진출하는 게 우리 회사 미래를 위한 최고의 선택이야"같은 판단이요.
무엇이 더 나은지 비교하고 순위 매기는 것. "지로 드림스 오브 스시가 위플래쉬보다 야망을 다룬 더 좋은 영화야"같은 평가요.
기존 가치관을 거부하고 새로운 가치를 주장하는 것. "사회가 이걸 받아들이지만 난 동의 안 해, 비록 정치적으로 손해 보더라도"같은 용기 있는 결정이죠.
현실적으로 생각해보세요. 만약 AI가 추천한 투자 전략으로 5천억 원 손해를 봤다고 상상해보세요. 이사회에서 "챗GPT가 그렇게 하래서요"라고 말할 수 있나요? 차고에 있는 망치가 시키는 대로 했다고 하는 것만큼 말이 안 되는 소리죠.
예외가 있다면?
물론 예외는 있어요. 하루에 이메일 500통을 받는다면요? 이건 인간이 물리적으로 다 처리할 수가 없잖아요. 이럴 때 AI한테 이메일 요약하고 분류하게 하는 건 괜찮아요. 단, "가끔 중요한 이메일을 놓칠 수 있지만 감수할게"라고 명확히 인정하고 쓰는 거죠.
구글 검색도 마찬가지예요. 우리는 매일 구글한테 '좋은' 웹페이지와 '나쁜' 웹페이지를 판단하게 맡기고 있어요. 왜냐고요? 우리가 전체 웹을 다 읽을 수 없으니까요. 이건 정당한 이유가 있고, 우리 모두 그걸 알고 쓰는 거예요.
실제로는 어떻게 쓸까?
세드릭 친이 자신의 경험을 통해 소개한 방법들을 정리해볼게요.
먼저 간단한 것부터요. PDF 파일 여러 개를 챗GPT에 올리고 질문하는 건 전혀 문제없어요. 판단은 내가 하고 AI는 정보를 찾아주는 거니까요.
세드릭은 최근 MIT의 난다 AI 비즈니스 2025 보고서에서 "기업 AI 프로젝트의 95%가 실패했다"는 제목을 봤대요. 그런데 그는 실패한 95%보다 성공한 5%가 궁금했던 거죠. 그래서 PDF를 챗GPT에 올리고 "이 보고서에서 성공 사례만 뽑아줘. 페이지 번호랑 인용구도 포함해서"라고 했어요. 엄청 빨리 원하는 정보를 찾았다고 하네요.
음성을 텍스트로 바꾸고 다시 깔끔하게 정리하는 것도 좋은 사용법이에요. 우리가 말할 때는 횡설수설하고 반복하잖아요. 이걸 AI로 정리하면 타이핑보다 훨씬 빠르게 글을 쓸 수 있어요. 세드릭도 자신이 운영하는 커먼코그 멤버 포럼에 올리는 글 대부분을 이 방법으로 쓴다고 해요.
반대로 절대 하면 안 되는 것도 있어요. 틴더에서 AI한테 좌우 스와이프 맡기기? 완전 미친 짓이죠. 연애 상대를 고르는 건 완전히 내 주관적 판단이어야 해요. 더 중요한 건, 연애하면서 내 기준이 계속 변하고 발전해야 한다는 거예요.
커리어 조언은 어떻게 물어보느냐에 달려있어요. "비슷한 커리어 전환을 한 사람들의 성공과 실패 사례를 찾아줘"는 괜찮아요. 리서치 자료로 쓰는 거니까요. 하지만 "나는 A, B, C를 중요하게 생각해. 이 커리어 전환을 해야 할까?"는 위험해요. AI가 내 가치 판단을 대신하게 만드는 거거든요.
교육 현장의 혁신적인 사례
영국의 '노 모어 마킹(No More Marking)'이라는 온라인 비교 평가 소프트웨어 회사가 정말 똑똑하게 AI를 활용하고 있어요. 이 회사는 2013년 설립 이후 영국 전역 3,000개 이상의 학교에서 사용되고 있고, 연간 100만 건 이상의 학생 작품 평가를 지원하고 있어요.
이 회사의 교육 이사인 데이지 크리스토돌루는 2년 넘게 학교 현장에서 AI 실험을 했어요. 그는 교육 평가 분야에서 20년 이상 경력을 쌓은 전문가로, 2025년 초 팟캐스트 인터뷰에서 자신의 팀이 진행한 실험 결과를 공유했어요.
처음엔 당연히 AI로 학생 에세이를 채점하고 피드백을 주려고 했대요. 당연히 실패했죠. AI가 만든 피드백은 겉보기엔 그럴듯했지만 너무 뻔하고 일반적이었어요.
그래서 접근을 완전히 바꿨어요. 노 모어 마킹은 4천만 건의 인간 비교 평가 데이터를 갖고 있었거든요. 이미 알고 있던 사실이 있었는데요, 사람도 절대 평가는 잘 못한다는 거예요. 대신 두 에세이를 나란히 놓고 "어느 게 더 나아?"라고 물으면 훨씬 정확하다는 거죠.
AI한테도 같은 방식으로 시켜봤더니 조금 나아졌어요. 하지만 AI는 인간이 안 하는 실수를 했어요. 예를 들어 왼쪽에 있는 에세이를 더 선호하는 경향이 있었죠.
그래서 한 번 더 실험했어요. 각 에세이 쌍을 좌우를 바꿔서 두 번 평가하게 했어요. 그랬더니 AI가 실수하는 건 주로 실력이 비슷한 에세이 쌍일 때더라고요.
완벽한 해결책이 나온 거죠. 비슷한 실력의 에세이는 사람이, 차이가 명확한 건 AI가 판단하도록 시스템을 만들었어요. 그럼 선생님들은 남은 시간에 뭘 할까요? 바로 학생들한테 더 나은 피드백을 주는 거예요. 채점보다 피드백이 학생 실력 향상에 훨씬 중요하거든요.
피드백 부분도 재미있어요. 선생님들한테 "AI가 만든 피드백을 읽고 수정해주세요"라고 했더니 완전 반발했대요. "에세이 읽고, AI 피드백 읽고, 그걸 어떻게 고칠지 생각하는 시간에 차라리 내가 처음부터 피드백 쓰는 게 더 빨라요!"
이게 바로 '자동화의 역설'이에요. 시스템이 90~95%까지 해주면, 사람이 나머지 5~10% 오류를 찾기 위해 계속 집중하고 있기가 너무 어려운 거죠.
그래서 완전히 접근을 뒤집었어요. 선생님들이 에세이를 읽으면서 음성으로 피드백을 남기게 했어요. 여러 선생님이 한 에세이에 코멘트를 남길 수 있고, 막 거칠게 말해도 돼요. 나중에 AI가 알아서 부드럽게 다듬어주거든요.
그리고 AI가 이걸 텍스트로 바꾸고, 톤을 부드럽게 만들고, 여러 선생님의 피드백을 요약해서 학생한테 줘요. 더 중요한 건, 반 전체 학생들의 피드백을 분석해서 선생님한테 "35명 중 20명이 시제에 문제가 있어요"같은 리포트를 준다는 거예요.
이렇게 하니까 학생들은 "진짜 여러 선생님이 내 글을 읽고 신경 써줬구나"라고 느껴요. 한 선생님이 "네가 쓴 이 표현 정말 좋더라"라고 하면, 그게 피드백에 포함되거든요.
크리스토돌루는 이렇게 말했어요. "학생들이 가장 좋아하는 건 자신의 작품이 '보여진다'는 느낌이에요. 자기가 알고 존경하는 선생님이 읽고 관심을 기울인다는 걸 알 때, 학생들은 더 열심히 하고 싶어져요."
이게 바로 의미 만들기를 사람이 하고, AI는 보조 역할을 하는 완벽한 예시예요.
월스트리트 최첨단 헤지펀드의 비밀
달루파(Daloopa)는 세계 최고 헤지펀드와 투자은행들한테 금융 데이터를 제공하는 회사예요. 2020년 설립된 이후 연간 성장률 300%를 기록하며, 현재 시티그룹, 골드만삭스, 모건스탠리 등 세계 100대 헤지펀드 중 80개 이상이 이용하고 있어요.
이 회사의 창업자이자 CEO인 토마스 리는 최근 팟캐스트 인터뷰에서 월스트리트의 대형 헤지펀드들이 AI를 어떻게 활용하는지 공유했어요.
토마스 리는 독특한 위치에 있어요. 달루파가 이런 헤지펀드들의 AI 시스템에 데이터를 공급하다 보니, 그들이 내부적으로 어떤 시스템을 구축하고 어떻게 사용하는지 속속들이 알 수 있거든요.
리가 말하는 가장 똑똑한 활용법은 이거예요.
투자자가 어떤 회사에 대해 자기 나름의 분석 노트를 써놨다고 해보죠. 그럼 AI한테 "내 분석 노트랑 최근 4분기 실적 발표를 비교해봐. 불일치하는 부분이 있어?"라고 물어보는 거예요. AI는 이런 걸 정말 잘해요.
리는 실제 대화 예시를 들어줬어요. "여기 최신 실적 발표 자료야. 여기 모건스탠리 TMT 컨퍼런스 발표 자료야. 여기 이 이벤트들이 일어나기 전에 내가 쓴 노트야. 어디가 안 맞아?"
이건 마치 엄청 똑똑한 문서 대조 기능 같은 거죠.
리는 또 이렇게 말해요. "지금 AI를 안 쓰는 리서치 애널리스트는 제대로 일하는 게 아니에요. 옛날에 구글 안 쓰는 것처럼요. 대형 멀티전략 헤지펀드든 전통적인 롱온리 헤지펀드든, 큰 규모의 펀드들은 모두 'AI를 활용해야 한다'는 걸 알고 대규모 투자를 하고 있어요."
리는 현재 월스트리트에서 일어나고 있는 큰 변화를 설명했어요. "과거엔 구글 검색 알고리즘처럼 핵심 기술이 회사 안에 갇혀 있었어요. 하지만 지금은 GPT든 클로드든 기반 모델을 누구나 쓸 수 있잖아요. 3주 전에 어떤 모델을 썼다가, 4배 좋고 가격은 반인 새 모델이 나오면 바로 갈아타는 게 가능해요."
근데 여기서도 중요한 건 뭘까요? 리가 소개한 모든 예시와 이런 펀드들이 구축하는 시스템의 핵심은, 주관적 가치 판단을 AI한테 아웃소싱하지 않는다는 거예요. 모든 최종 판단과 투자 결정은 사람이 해요. AI는 그냥 리서치와 데이터 분석을 빠르게 해줄 뿐이에요.
코딩할 때는 어떻게?
유명 프로그래머이자 구글의 엔지니어링 리더인 애디 오스마니(Addy Osmani)는 2024년 12월 '70% 문제: AI 지원 코딩에 관한 불편한 진실'이라는 글을 발표했어요. 2년간 AI 지원 개발을 연구한 결과를 정리한 거죠.
오스마니가 발견한 가장 역설적인 사실이 뭘까요?
"AI 도구는 초보자보다 숙련된 개발자한테 더 도움이 된다."
이상하죠? AI가 코딩을 민주화해야 하는 거 아닌가요?
오스마니의 설명은 이래요. AI는 매우 열정적인 주니어 개발자 같아요. 빠르게 코드를 쓰지만 계속 감독하고 고쳐줘야 해요. 지식이 많을수록 AI를 더 잘 가이드할 수 있는 거죠.
시니어 개발자들은 AI를 이렇게 써요. 이미 이해하고 있는 아이디어를 빠르게 프로토타입으로 만들기, 나중에 다듬을 기본 구현 생성하기, 이미 알고 있는 문제에 대한 대안적 접근 방법 탐색하기, 반복적인 코딩 작업 자동화하기.
반면 주니어들은 이래요. 틀리거나 오래된 해결책을 그대로 받아들이고, 보안이나 성능 문제를 놓치고, AI가 만든 코드 디버깅에 어려움을 겪고, 제대로 이해하지 못한 채로 취약한 시스템을 구축해요.
코드를 어디에 쓰느냐가 중요해요. 내부 프로토타입이나 회사 방화벽 뒤에 있는 도구처럼 중요하지 않은 경우라면, AI가 만든 코드를 검토 없이 써도 괜찮아요. 하지만 수백만 고객한테 영향을 주는 프로덕션 코드라면요? 수백억 원의 고객 영향이 있는 서비스에 배포하는 거라면요? 당연히 AI가 만든 코드를 꼼꼼히 검토하고 평가해야죠.
그래서 우리는 어떻게 해야 할까?
AI 활용을 위한 간단하고 쉬운 기준, 바로 본 탄 룰이에요. "주관적 가치 판단을 AI한테 맡기지 마라. 단, 정당한 이유가 있다면 그 이유를 명확히 하라."
본 탄의 철학적 기반 덕분에 쉽게 변하지 않을 원칙이에요. AI가 아직 의미를 만들 수 없다는 것, 그리고 우리가 AI한테 권리를 부여하지 않는다는 사실은 당분간 변하지 않을 거예요. 이 원칙은 인공 일반 지능(AGI)이 등장하기 전까지는 유효할 거예요.
전 세계 다양한 분야의 실제 사례들이 있어요. 교육(데이지 크리스토돌루와 노 모어 마킹), 금융(토마스 리와 달루파), 소프트웨어(애디 오스마니) 등 다양한 분야의 전문가들이 이미 이 원칙을 실천하고 있어요.
당장 여러분의 AI 사용을 돌아보세요. 예외가 있나요? 언제 주관적 판단을 AI한테 맡기고 싶고, 언제는 절대 안 될까요?
결론: AI 시대를 똑똑하게 살아가기
AI는 이미 우리 삶 깊숙이 들어왔어요. 하지만 우리가 AI를 현명하게 쓸지, 아니면 AI한테 우리의 판단력을 빼앗길지는 우리 손에 달려있어요.
핵심을 기억하세요.
AI한테 정보를 찾고, 정리하고, 분석하게 하세요.
AI한테 반복적인 작업을 맡기고, 체크리스트 역할을 하게 하세요.
AI한테 제안과 옵션을 만들게 하세요.
하지만 의미를 만들고, 가치를 판단하고, 최종 결정을 내리는 건 여러분의 몫이에요.
왜냐하면 그게 바로 여러분을 인간답게 만드는 것이고, 계속 성장하게 만드는 것이니까요.
AI 시대에도 계속 성장하는 똑똑한 사람으로 남고 싶다면, 이 한 가지만 기억하세요. "주관적 가치 판단은 내가 한다."
'IT > AI' 카테고리의 다른 글
| 🚀 AI 업계가 숨겨왔던 5가지 진실, 2025년 최대 서밋에서 드러나다 (0) | 2025.11.03 |
|---|---|
| 🎯 CSV는 이제 그만! LLM이 가장 잘 이해하는 테이블 포맷은? (0) | 2025.11.02 |
| 🤖 AI 글쓰기가 다 비슷한 이유, 그리고 해결법 (1) | 2025.11.02 |
| 🔮 AI 검색의 미래, RAG는 정말 끝났을까? (0) | 2025.10.11 |
| AI가 진짜로 '눈'을 뜬 순간, 코딩의 미래가 바뀌었다 (0) | 2025.10.11 |