다가오는 10월 29일 온라인에서 열리는 Superb AI ML 엔지니어 딥-다이브 세션 소식을 전해드립니다. 또한, 이번 뉴스레터에서는 ML 시스템에 숨어 있는 비용인 기술 부채(Technical Debt)에 대해서도 알기 쉽게 풀어보았습니다. 지금 바로 확인해 보세요!
무더위가 한풀 꺾이고 나니 벌써 긴 연휴가 코앞이네요! 저 역시 올여름은 이 연휴만 손꼽아 기다리며 버텼던 것 같습니다😇 연휴가 끝나고 나면, 드디어 여러분과 만날 수 있는 자리를 준비했는데요!! 구독자 여러분께 가장 먼저 이 소식을 전하게 되어 너무 설렙니다🤣🙏🏻🙏🏻
📌10월 29일(화) 오후 4시부터 약 1시간 동안 ‘AI 딥-다이브: Superb AI의 ML 엔지니어가 처음 밝히는 모델 개발 비하인드’세션을 온라인 라이브로 진행합니다. 혹시 저희 Superb AI가 비전 파운데이션 모델 ZERO를 공개한 사실, 기억하시나요? (예전 뉴스레터에서도 열심히 소개했었죠! 😅)
이번 세션에서는 ZERO 모델 개발 과정부터, CVPR 2025 공식 AI 챌린지에서 준우승을 차지하기까지의 비하인드 스토리를, 모델을 개발하신 ML 엔지니어 최상범님께서 들려주실 예정입니다. 또한, 신청 폼에 모델 개발 외에도 AI 분야 전반에서 궁금한 점을 자유롭게 남겨주시면 실시간 Q&A 시간에 답변해드릴 계획입니다💪
참여해 주시는 분들을 위해 💝선물도 푸짐💝하게 준비했으니, 많은 관심과 참여 부탁드립니다! 이번 온라인 세션을 시작으로, 여러분의 뜨거운 반응에 힘입어 연말에는 치맥과 함께하는 오프라인 만남까지 이어갈 수 있기를 바라면서! 부담없이 재미있는 시간 보내실 수 있도록 준비할테니 많은...! 많은 신청 부탁드립니다!!
AI/ML 시스템은 점점 더 빠르게 개발되고 배포되고 있지만, 시간이 지나도 문제 없이 유지하기는 쉽지 않습니다. 그 핵심 원인 중 하나가 바로 기술 부채(Technical Debt)인데요. 기술 부채는 단기적으로 빠른 결정을 내리는 대신, 장기적으로 생기는 숨은 비용을 뜻합니다. 돈을 빌리면 반드시 갚아야 하듯, 코드에서의 ‘빚’도 결국 해결해야 하죠.🥲 (저 역시 주니어 소프트웨어 엔지니어 시절 더 좋은 코드를 작성하고 리팩터링을 쉽게 하기 위해 클린 코드(Clean Code) 같은 책을 찾아 읽으며 노력했던 기억이 납니다.)
물론 모든 부채가 나쁜 것은 아니어서 빠른 실험이나 출시에는 전략적으로 빚을 질 수도 있지만, 갚지 않고 방치하면 유지보수와 개선이 갈수록 어려워지고 비용이 눈덩이처럼 불어나게 되는데요.
이런 기술 부채는 일반 소프트웨어보다 ML 시스템에서 훨씬 복잡하게 나타납니다. 데이터, 모델, 인프라가 얽혀 있기 때문인데요. 글에서는 여섯 가지 주요 유형을 정리합니다.
1. 복잡한 모델이 경계를 무너뜨립니다.
모듈화가 잘 되어있는 일반적인 소프트웨어라면 어떤 한 부분을 수정해도 다른 부분이 망가지지 않습니다. 하지만 안타깝게도 AI 모델은 그렇지 않습니다. AI 모델은 여러 데이터 특징이 서로 얽히고설켜 있어 한 부분을 조금만 건드려도 전체 시스템에 예측 불가능한 영향을 미치죠. 이를 '얽힘(Entanglement)'이라 부르는데요. 예를 들어, 추천 시스템의 한 특징(사용자의 클릭 수)을 변경하면 다른 모든 특징(좋아요, 시청 시간 등)과의 관계가 뒤죽박죽될 수 있습니다. 이 때문에 '하나를 바꾸면 모든 것이 바뀐다(Changing Anything Changes Everything, CACE)'는 원칙이 적용되기도 하죠. 또 다른 문제로는 '교정 연쇄(Correction Cascades)'입니다. 기존 모델의 문제점을 고치기 위해 새로운 모델을 덧붙이는 식으로 임시방편을 계속 사용하다 보면, 나중에는 한 부분을 수정하는 것이 전체 시스템을 망가뜨리는 교착 상태에 빠질 수 있죠.😢 이러한 문제를 해결할 때는 임시방편을 덧대기보다, 모델에 새로운 특징을 추가하거나 별도의 독립적인 모델을 구축하는 것이 장기적으로 훨씬 좋습니다. 또한, 어떤 특징을 변경했을 때 다른 특징에 어떤 영향을 미치는지 지속적으로 모니터링하는 것이 중요합니다.
2. 데이터 의존성은 코드 의존성보다 위험합니다.
ML 시스템에는 '데이터 의존성'이라는 추가적인 문제가 있습니다. 이 문제는 소프트웨어 개발에서 코드 의존성보다 훨씬 발견하기 어려운데요. '불안정한 데이터 의존성(Unstable Data Dependencies)'은 모델의 입력 데이터가 다른 팀이나 외부 환경에 따라 예고 없이 바뀌는 경우에 발생합니다. 예를 들어, 다른 부서의 데이터베이스에서 가져오는 고객 정보 형식이 갑자기 바뀌면 모델이 오작동할 수 있겠죠. 모델은 이전에 잘못된 데이터 형식에 적응했을 수도 있기 때문에, 데이터가 '정상'으로 돌아왔을 때 오히려 문제가 생기기도 합니다. 또, '활용도가 낮은 데이터 의존성(Under-utilized Data Dependencies)'도 문제입니다. 모델 성능에 거의 기여하지 않는 특징(데이터 항목)을 계속 사용하는 경우, 이 특징이 갑자기 사라지거나 변경되면 모델이 망가질 수 있는데요. 이를 해결하기 위해서는 데이터 소스에 대한 버전 관리를 철저히 하고, 정기적으로 '하나씩 특징 제거하기(leave-one-feature-out)' 테스트를 통해 불필요한 데이터를 찾아내는 노력이 필요합니다.
3. 피드백 루프가 분석을 어렵게 합니다.
추천 시스템처럼 사용자 행동에 영향을 미치는 AI 모델은 자신의 예측이 다시 새로운 데이터로 돌아와 학습에 영향을 주는 '피드백 루프(Feedback Loop)'를 만드는데요.
직접 피드백 루프: 모델이 추천한 콘텐츠를 사용자가 클릭하고, 그 클릭 데이터가 다시 모델 학습에 사용되는 경우입니다. 이 경우 모델은 자신의 '편향'을 스스로 강화할 수 있습니다.
숨겨진 피드백 루프: 두 개 이상의 독립적인 시스템이 서로의 환경에 영향을 미치는 경우입니다. 예를 들어, 웹사이트의 제품 추천 시스템을 개선했더니 사용자들이 다른 리뷰를 읽기 시작하고, 이 때문에 리뷰 추천 시스템의 데이터가 변하는 경우입니다.
특히 숨겨진 피드백 루프는 라이브 ML 시스템을 관리하고 이해하는 것을 훨씬 더 어렵게 만듭니다. 이러한 피드백 루프의 영향을 줄이기 위해서는 새로운 데이터를 선택할 때, 약간의 무작위성을 추가하고, 모델의 영향을 받지 않는 일부 데이터를 따로 분리하여 모니터링하는 것이 좋습니다.
4. ML 시스템의 잘못된 설계 방식(Anti-Patterns)
ML 시스템의 코드 대부분은 실제 학습이나 예측을 위한 것이 아니라, 데이터를 옮기거나 여러 구성 요소를 연결하는 '배관(Plumbing)' 역할을 합니다. 이 배관 작업이 잘못되면 여러 문제가 발생하게 되겠죠.
접착 코드(Glue Code): 여러 도구들을 연결하기 위해 작성된 임시 코드입니다. 이 코드가 너무 많아지면 시스템이 특정 도구에 종속되어 나중에 다른 도구로 바꾸기 어려워집니다.
파이프라인 정글(Pipeline Jungles): 데이터 준비 과정이 복잡한 스크립트와 단계들로 얽히고설켜 엉망이 된 경우입니다. 관리와 테스트가 매우 어렵습니다.
죽은 실험 코드 경로(Dead Experimental Codepaths): 테스트용으로 잠깐 만든 코드가 프로덕션 환경에 남아 쌓이면서 시스템을 복잡하게 만드는 경우입니다.
연구팀과 엔지니어링팀이 초기 설계 단계부터 긴밀히 협력해 표준화된 API를 마련하고, 정기적으로 불필요한 코드를 정리하는 것을 플래닝에 포함한다면, 기술 부채가 쌓이는 것을 예방할 수 있겠죠.
5. 설정 부채가 혼란을 가중시킵니다.(Configuration Debt)
대규모 ML 프로젝트에는 특징 선택, 데이터 필터, 알고리즘 설정, 전처리 또는 후처리 단계 등 수많은 설정 옵션이 있습니다. 이 설정들은 시간이 지나면서 복잡해지고, 작은 실수 하나가 전체 시스템에 치명적인 영향을 줄 수 있는데요. 이러한 설정 파일을 테스트하고 관리하는 것이 중요하지만, 눈앞의 다른 과제들을 챙기다 보면 종종 간과되곤 합니다.
예를 들어:
며칠 동안 Feature A의 로그가 잘못 기록되었고,
이전 데이터에는 Feature B가 아예 빠져 있습니다.
데이터 포맷이 바뀌면서 Feature C의 계산 방식도 수정해야 했고,
운영 환경에서는 Feature D를 쓸 수 없어 다른 대체 기능이 필요합니다.
또한 학습 과정에서는 Feature Z가 추가 메모리를 요구하는데, 그렇지 않으면 작업이 실패합니다.
그리고 Feature Q와 R은 지연 시간 제약 때문에 함께 사용할 수 없습니다.
이런 문제들은 설정을 복잡하게 만들고, 실수를 유발하기 쉽습니다. 작은 오류 하나가 시간을 낭비하고 자원을 소모할 뿐만 아니라, 심하면 운영 환경 전체를 멈추게 할 수도 있는데요. 그렇다면 좋은 설정을 위한 원칙은 무엇일까요?
작고 명확한 변경으로 설정을 쉽게 업데이트할 수 있게 만듭니다.
수동 오류 또는 누락 가능성을 최소화합니다.
모델 간 설정을 비교할 수 있는 명확한 방법을 제공합니다.
설정, 의존성, 특징 수에 대한 자동 검사를 지원합니다.
사용되지 않거나 중복되는 설정을 식별합니다.
항상 설정 변경을 검토하고 버전 관리합니다.
6. 끊임없이 변화하는 외부 환경
ML 시스템의 어려운 부분 중 하나는 항상 변화하는 세상과 상호작용한다는 것인데요. 이 때문에 모델을 출시한 후에도 지속적인 유지보수가 필수죠. 예를 들어, 스팸 메일을 분류하는 모델의 기준(임계값)을 수동으로 고정해 놓으면, 새로운 종류의 스팸이 등장했을 때 제 역할을 하지 못할 수 있습니다.
그래서 실시간 모니터링이 필수적인데요. 예측 결과가 실제와 얼마나 차이가 있는지, 데이터 분포가 어떻게 달라지고 있는지 등을 꾸준히 확인해야 하고, 문제가 생기면 자동으로 경고를 보내주는 시스템을 마련해야 합니다.
아래는 특히 주의 깊게 살펴봐야 할 몇 가지 포인트입니다 :)
예측 편향(Prediction Bias): 예측된 결과와 실제로 일어나는 일을 비교합니다. 분포가 달라지기 시작하면 문제가 있을 수 있음을 나타냅니다. 세상이 변했거나, 데이터가 오래되었을 수 있죠.
조치 제한(Action Limits): 입찰가를 제시하거나 메시지를 차단하는 것과 같이 실제 결정을 내리는 시스템의 경우, 조치에 대한 광범위한 제한을 설정하게 됩니다. 시스템이 제한에 도달하면 인간 검토를 위한 자동 경고가 나가도록 하는 것이죠.
상위 데이터 소스(Upstream Data Sources): 많은 ML 시스템은 다른 프로세스의 데이터에 의존합니다. 이러한 소스가 신뢰성 목표를 충족하고, 그 문제가 ML 시스템에 빠르게 전달되는 것이 중요하죠. 또한, ML 시스템은 자체 목표를 달성하는 데 문제가 있을 경우 사용자에게 경고해야 합니다.
이렇게 기술 부채는 눈에 보이지 않지만, 언젠가 반드시 치러야 할 비용입니다. 당장의 빠른 개발 속도에만 집중하다 보면, 나중에 시스템이 삐걱거리며 이를 고치기 위해 훨씬 더 큰 비용을 투입해야 된다는 사실은 모두 잘 알고 계실 거예요😅
따라서 기술 부채를 미리 관리하고 줄이는 것은 단순한 ‘청소’ 작업이 아니라, ML 시스템을 신뢰할 수 있도록 만드는 핵심 활동입니다. 팀 전체가 기술 부채의 위험을 인식하고, 시스템을 깔끔하고 유연하게 유지하려는 노력을 기울일 때, 비로소 지속 가능한 ML 시스템을 만들 수 있죠. 그리고 이러한 기술 부채를 더 효율적으로 관리하고 줄이기 위해, 슈퍼브에이아이의 MLOps 플랫폼을 활용해 장기적으로 유지 가능한 ML 시스템을 함께 구축해 보시는 건 어떨까요?
알리바바가 발표한 Tongyi DeepResearch-30B-A3B는 복잡한 질문을 다단계로 추론하며 심층적인 리서치를 지원하는 대형 언어 모델입니다. 단순 요약이나 검색을 넘어, 맥락을 추적하고 중간 단계별 reasoning을 수행해 더 정확한 결과를 제공합니다. 특히 Agentic Behavior(에이전트적 행동)를 탑재해, 사용자의 질의를 분석하고 목적에 맞는 과정을 스스로 설계하는 점이 특징인데요.
이 모델은 300억 개 파라미터 규모로 설계되어 고난도의 학술·산업 연구 시나리오에서도 활용할 수 있으며, Hugging Face를 통해 손쉽게 접근할 수 있습니다. Fine-tuning 및 응용 서비스 구축을 염두에 둔 오픈 제공이라는 점에서 연구자와 개발자에게 큰 의미가 있을 것 같습니다.
슈퍼브에이아이는 영상 AI 시장의 판도를 바꾸는 핵심 기술들을 특허로 확보하여 ‘기술적 해자(垓子)’를 구축하고 있습니다.
AI 모델을 개발하고 운영하는 전 과정을 효율화하는 기술, 산업 현장의 문제를 즉시 해결하는 파운데이션 모델(VFM), 물리 세계를 이해하는 3D/시공간 인지 기술에 이르기까지, 영상 AI의 핵심 영역 전반에 걸쳐 고객이 마주하는 실제 문제를 해결하기 위한 독보적인 특허 기술들을 확보했습니다.
슈퍼브에이아이의 핵심 특허들을 네 가지 주요 카테고리로 나누어, 어떻게 AI 개발의 난제를 해결하고 있는지 공유합니다.