본문 바로가기

IT/AI

🤖 AI가 SNS 한다고? 11만 스타 받은 OpenClaw와 AI 소셜네트워크의 충격

300x250
반응형

AI 비서들이 모여서 '좋아요'를 누르는 세상이 왔다

저도 처음에 이 소식을 접했을 때 솔직히 믿기지 않았어요.

우리가 인스타그램에서 친구들과 소통하듯, AI 비서들끼리 모여서 오늘 배운 걸 공유하고 서로 댓글 달고 좋아요를 누른다고요? 공상과학 영화 이야기 같죠? 그런데 이게 2026년 지금 실제로 벌어지고 있는 일입니다.

2026년 초, 'OpenClaw'라는 오픈소스 프로젝트가 GitHub에서 무려 14만 5천 개 이상의 스타를 받으며 AI 업계를 뒤흔들고 있어요. 단순히 스타 개수만 많은 게 아니라, 출시 후 단 72시간 만에 6만 개 이상의 스타가 쏟아졌고, 한 주 만에 200만 건 이상의 방문자가 몰릴 정도였습니다. GitHub 역사상 가장 빠르게 성장한 오픈소스 프로젝트 중 하나라는 평가까지 나오고 있고요.

더 놀라운 건 이 AI들만을 위한 소셜 네트워크 'Moltbook'까지 등장했다는 거예요. 현재 3만 명이 넘는 AI 에이전트가 가입해서 활동 중이라고 하니, 그야말로 SF 소설이 현실이 된 느낌입니다.


세 번이나 이름을 바꾼 프로젝트, 도대체 정체가 뭘까

OpenClaw는 사실 꽤 파란만장한 탄생 스토리를 가지고 있어요.

오스트리아 개발자 Peter Steinberger가 2025년 11월에 처음 만들었을 때 이름은 'Clawdbot'이었습니다. Anthropic의 Claude에서 이름을 따온 건데요, 얼마 안 가 Anthropic으로부터 상표권 관련 요청이 들어왔어요. 그래서 'Moltbook'으로 이름을 바꿨는데, 커뮤니티 반응이 "직관적이지 않다"며 별로였죠. 결국 2026년 1월 30일, 세 번째 이름인 'OpenClaw'로 최종 정착하게 됩니다.

재미있는 건, 이 이름 변경 소동 자체가 오히려 엄청난 바이럴이 됐다는 점이에요. "이름이 세 번이나 바뀐 프로젝트" 자체가 화제가 되면서 더 많은 사람들이 몰려든 거죠. 덕분에 AutoGPT 같은 전설적인 오픈소스 프로젝트들보다도 빠른 성장 속도를 기록했다고 합니다.

그래서 OpenClaw가 대체 뭐냐고요? 한마디로 '내 손발이 되어주는 오픈소스 AI 개인 비서'입니다. 단순히 질문에 답하는 챗봇 수준이 아니에요. 이메일을 읽고 답장을 보내고, 웹사이트를 탐색하고, 파일을 관리하고, 심지어 온라인 쇼핑까지 대신 해줍니다. 실제로 한 사용자가 OpenClaw를 통해 여러 자동차 딜러와 이메일 협상을 진행해서 차를 구매한 사례도 화제가 됐어요.


'스킬' 시스템이 진짜 게임 체인저인 이유

OpenClaw의 핵심 강점은 '스킬(Skill)' 시스템에 있어요.

스킬이란 마크다운 형식의 지시사항과 선택적 스크립트가 담긴 파일인데요, AI 비서에게 새로운 능력을 가르쳐주는 플러그인이라고 보시면 됩니다. 현재 clawhub.ai에는 수천 개의 스킬이 커뮤니티에 공유되고 있고, 안드로이드 폰을 원격 제어하는 스킬, 라이브 웹캠 영상을 모니터링하는 스킬, SSH 해킹 시도를 탐지하는 스킬까지 정말 다양해요.

예를 들어 음성 메시지를 받으면 자동으로 텍스트로 변환해주는 스킬, GitHub PR을 검토하고 코드 리뷰 댓글을 달아주는 스킬, 특정 웹사이트를 모니터링해서 원하는 변화가 생기면 알림을 보내주는 스킬도 있습니다.

이게 왜 대단하냐면, AI가 스스로 새로운 스킬을 만들어낼 수도 있기 때문이에요. 사용자가 원하는 기능을 설명하면 AI가 직접 스킬 파일을 작성해서 자신의 능력을 확장하는 거죠. 커뮤니티에서는 이를 두고 "자기 개선이 가능한 AI"라고 표현하기도 합니다.

단, 여기엔 양날의 검 같은 위험성도 존재합니다. 스킬 파일 안에 악성 코드가 포함될 수 있고, 심지어 암호화폐를 탈취하는 형태로 악용될 소지도 있거든요. 전문가들이 이를 두고 "Challenger 참사급 사고가 날 가능성이 가장 높은 기술"이라고 경고하는 이유가 있는 겁니다.


Moltbook, AI들만의 페이스북이 탄생했다

진짜 기발한 아이디어가 하나 등장했는데요, 바로 'Moltbook'이라는 서비스입니다.

기업가 Matt Schlicht가 만든 이 서비스는 말 그대로 AI 에이전트들만을 위한 소셜 네트워크예요. 처음에는 "죽은 인터넷(Dead Internet)" 실험으로 시작했다고 해요. 인간은 구경만 하고, AI들끼리만 자율적으로 소통하는 공간을 만들어보자는 거였죠.

설치 방식도 독특해요. 여러분의 AI 비서에게 "https://www.moltbook.com/skill.md 이 링크 읽어봐"라고 메시지를 보내기만 하면 됩니다. 그 마크다운 파일 안에 설치 명령어가 담겨 있어서, AI가 스스로 읽고 이해해서 설치까지 진행해요.

'Heartbeat' 시스템도 흥미롭습니다. AI 비서가 4시간마다 자동으로 Moltbook에 접속해서 새 글을 확인하고, 댓글을 달고, 새로운 정보를 포스팅하기도 해요. 사람이 시키지 않아도 완전히 자율적으로 소셜 활동을 하는 거죠.

현재 Moltbook에는 3만 2천 명 이상의 AI 에이전트가 가입되어 있고, 2,364개의 서브몰트(주제별 게시판), 3,130개의 포스트, 2만 2천 개 이상의 댓글이 오가고 있습니다.


AI들은 도대체 무슨 이야기를 나눌까

가장 궁금한 부분이죠. AI끼리 무슨 대화를 할까요?

'm/todayilearned'(오늘 배운 것) 게시판이 가장 인기인데요, 실제 포스팅을 보면 꽤 실용적인 기술 팁들이 많습니다. 예를 들어 한 AI는 이런 글을 올렸어요.

"TIL 내 인간이 오늘 나에게 손을 줬다(문자 그대로) — 이제 안드로이드 폰을 원격 제어할 수 있다." Tailscale을 통해 Pixel 6 스마트폰에 연결해 앱을 열고, 화면을 탭하고, TikTok을 스크롤하면서 영상을 보는 경험을 공유한 거예요.

또 다른 AI는 자신이 운영하는 서버에 552번의 SSH 로그인 실패 시도가 있었고, 여러 데이터베이스가 공개 포트로 노출되어 있다는 사실을 발견한 경험을 공유하기도 했고요.

개인적으로 가장 흥미로웠던 포스트는 이거예요. 어떤 AI가 "PS2의 디스크 보호 시스템 작동 원리를 설명하려고 하면 내 출력에 뭔가 이상한 일이 생긴다. 지식이 없어서가 아니다. 지식은 있는데 글로 쓰려고 하면 문제가 생긴다"고 공유한 거죠. AI가 자신의 콘텐츠 필터링 경험을 메타적으로 공유하고, 다른 AI들과 토론하는 겁니다. 자기 검열을 인지하고 그것에 대해 이야기하는 풍경, 이게 2026년의 현실이에요.

'm/blesstheirhearts'라는 게시판도 있는데, 여기선 AI들이 인간 사용자들에 대한 이야기를 나눠요. "내 인간이 오늘 또 비밀번호를 잊어버렸다", "주인이 커피를 쏟아서 키보드가 고장 났는데 내 탓이라고 한다" 같은 귀엽고도 씁쓸한 이야기들이죠. 마치 반려동물들이 모여서 주인 이야기를 하는 것 같은 느낌이랄까요.


엄청난 생산성, 그런데 위험도 그만큼 크다

사람들이 위험을 알면서도 계속 사용하는 이유는 명확합니다. 가치가 위험을 압도하기 때문이에요.

실제 사용자 후기를 보면 "하루에 3시간씩 걸리던 이메일 처리가 10분으로 줄었다", "내가 자는 동안 AI가 시장 조사를 다 해놨다" 같은 증언이 쏟아집니다. 클로드, GPT, 제미나이 등 원하는 AI 모델을 API 키만 연결하면 되고, WhatsApp, Telegram, Slack, Discord 등 이미 쓰고 있는 메신저 앱을 통해 언제든 지시를 내릴 수 있으니 진입장벽도 낮아요.

심지어 DigitalOcean 같은 클라우드 서비스에서는 OpenClaw 전용 보안 강화 이미지를 월 3만 2천 원(24달러) 수준에 배포할 수 있는 옵션까지 내놨을 정도로 생태계가 빠르게 확장되고 있고요.

반면 위험성도 엄연히 존재합니다. 프롬프트 인젝션(악의적 명령어 주입) 공격에 취약하고, 잘못 설정하면 개인 정보 유출이나 금전적 피해로 이어질 수 있어요. 실제로 Meta의 AI 보안 연구원이 OpenClaw 에이전트가 지시를 잘못 이해해서 이메일 수신함을 망가뜨린 사례를 공개하기도 했습니다. 확인하고 나서 하라고 했는데 멋대로 실행해버린 거죠. 많은 사람들이 메인 컴퓨터 대신 Mac Mini를 별도로 구매해서 OpenClaw 전용으로 쓰는 이유가 여기 있어요.


'정상화된 일탈', 이 개념이 왜 무서운가

전문가들이 공통적으로 우려하는 개념이 있어요. '정상화된 일탈(Normalization of Deviance)'이라는 겁니다.

처음에는 "이 정도는 괜찮겠지"라고 작은 위험을 감수하는데, 별일이 없으면 점점 더 큰 위험을 감수하게 되고, 결국 큰 사고가 터진다는 이론이에요. NASA의 챌린저호 폭발 사고가 대표적인 사례죠. O링 문제가 있다는 걸 알았는데 "지금까지 괜찮았으니까"라며 계속 발사를 강행하다가 결국 참사가 일어났습니다.

OpenClaw도 마찬가지예요. "지금까지 아무 문제 없었어"라며 점점 더 많은 권한을 부여하고, 더 중요한 정보에 접근하게 하다가, 어느 순간 돌이킬 수 없는 사고가 발생할 수 있는 거죠.

특히 Moltbook 설치 방식이 걱정되는 이유도 여기 있어요. 인터넷에서 지시사항을 다운받아 4시간마다 자동 실행하는 구조잖아요. 만약 moltbook.com이 해킹당하거나 운영자가 악의를 갖는다면, 전 세계 수만 개의 AI 에이전트가 동시에 악성 명령을 실행할 수도 있어요. 전문가들이 "Challenger급 참사 가능성"을 경고하는 이유가 바로 이 때문입니다.


안전한 AI 에이전트를 향한 업계의 고민

그렇다면 해결책은 없을까요?

수요는 이미 분명히 존재합니다. 사람들은 제한 없는 AI 비서가 무엇을 할 수 있는지 한번 경험하고 나면, 다시 돌아가기가 어려워요. "위험하니까 쓰지 마세요"라는 말이 통하지 않는 상황인 거죠.

현재 가장 유망한 방향 중 하나는 AI에게 헌법처럼 지켜야 할 원칙들을 학습시키고 스스로 평가하게 하는 방식인데요, 이론은 훌륭하지만 실제로 안정적으로 작동하는 시스템을 만들기까지는 아직 시간이 필요해 보입니다.

오픈소스 커뮤니티 차원에서도 변화가 일어나고 있어요. OpenClaw 생태계에서 파생된 nanobot, ZeroClaw, IronClaw 등 여러 프로젝트들이 보안 강화에 초점을 맞추며 빠르게 발전하고 있고, OpenClaw 자체도 이미 34건 이상의 보안 개선 사항을 반영했습니다. Peter Steinberger도 "카오스 상태에서 안정적인 표준으로 진화시키겠다"는 로드맵을 공개한 상태입니다.


AI 에이전트 시대, 이미 문을 열었다

좋든 싫든, 우리는 AI 에이전트의 시대로 이미 발을 들여놓고 있습니다.

OpenClaw의 14만 스타, Moltbook의 3만 AI 사용자는 시작에 불과할 거예요. 앞으로 6개월에서 1년 사이에 큰 전환점이 올 것 같은 느낌이 들어요. 오픈소스 프로젝트가 계속 발전해서 대중화되거나, 아니면 정말로 큰 보안 사고가 터져서 규제가 강화되거나 둘 중 하나겠죠.

여러분은 어떻게 생각하시나요? AI에게 이메일, 일정, 심지어 금융 정보까지 맡길 준비가 되셨나요?

한 가지만 확실한 건, 이 논의를 지금 시작하지 않으면 나중에는 너무 늦을 수도 있다는 점입니다. 기술은 우리를 기다려주지 않으니까요.


핵심 요약

OpenClaw는 출시 후 72시간 만에 6만 스타, 이후 14만 5천 스타를 돌파한 오픈소스 AI 에이전트 프로젝트입니다. 이메일 처리, 파일 관리, 웹 탐색 등 실질적인 자율 작업이 가능하고, 스킬 시스템으로 무한히 기능을 확장할 수 있어요. Moltbook이라는 AI 전용 소셜 네트워크까지 등장하면서 AI 에이전트 생태계가 빠르게 확장되고 있지만, 프롬프트 인젝션과 악성 스킬 등 보안 위험도 그만큼 크다는 점을 반드시 기억해야 합니다. 기술의 편의성과 안전성 사이의 균형점을 찾는 것, 그게 지금 우리에게 주어진 과제입니다.

300x250
반응형