전산학부 윤성의 교수, 미국 컴퓨터학회(ACM) 특훈회원 선정
우리 대학 전산학부 윤성의 교수가 세계 최대 컴퓨터 과학 분야 학술 단체인 미국 컴퓨터학회(ACM, Association for Computing Machinery)의 ‘특훈회원(Distinguished Member)’으로 선정됐다.
ACM 특훈회원은 컴퓨터 및 정보기술 분야에서 15년 이상의 경력을 보유하고, 탁월한 연구 업적과 기술적 리더십을 통해 해당 분야 발전에 크게 기여한 연구자에게 주어지는 고위 회원 등급이다.
전 세계 약 11만 명의 ACM 회원 중 상위 10% 이내에 해당하는 인원만이 이 자격을 얻을 수 있으며, 매년 약 50~60명만이 엄선되는 매우 영예로운 자리다.
윤성의 교수는 ‘피지컬 AI(Physical AI)’ 분야의 권위자로, ▲대용량 3D 모델을 초고속으로 처리하는 스케일러블 렌더링(Scalable Rendering) ▲물리 기반 시뮬레이션 및 데이터 생성 ▲AI·컴퓨터 비전 학습 기법 등에서 독창적인 연구 성과를 인정받아 이번 영예를 안았다.
윤 교수가 개발한 기술들은 현재 3D 그래픽스를 넘어 로보틱스, 자율주행, 시뮬레이션 기반 AI 등 미래 산업 전반의 핵심 기반 기술로 폭넓게 활용되고 있다.
윤 교수는 2007년 KAIST 부임 이후, 로봇 경로 계획 및 강화학습, 대규모 검색 기술 등 다양한 융합 연구를 주도해왔다. 이러한 연구 결과는 ACM SIGGRAPH, IEEE CVPR, ICRA 등 세계 최고 수준의 학회에서 꾸준히 발표되었으며, ‘Test-of-Time Award’와 ‘Best Paper Award’ 수상, 다수의 저널 초청 논문 선정 등을 통해 국제적 영향력을 입증해왔다.
윤 교수는 서울대학교에서 전산학 학·석사를 마치고 미국 노스캐롤라이나 대학교 채플힐(UNC–Chapel Hill)에서 박사학위를 받았다. 이후 미국 로렌스 리버모어 국립연구소(LLNL)에서 박사후연구원으로 재직하며 대규모 데이터 처리 기술을 연구한 바 있다.
영상 속 1등이 어디죠? ‘딱 그 순간’을 찾아내는 AI 기술 세계 1위
‘카메라가 다른 곳을 비추는 사이 사라진 물체는 무엇 인가요?’라는 복잡한 질문이 나오면 AI는 많은 경우 영상 속 실제 상황을 보고 판단하는 것이 아니라, 언어 패턴에 의존해 ‘그럴듯한 답’을 추측하는 문제가 있다. 우리 대학 연구진은 이 한계를 해결하기 위해 영상 속 ‘딱 중요한 순간(Trigger moment)’을 AI가 스스로 찾아내도록 하는 기술을 개발했고, 이 기술로 국제 AI 대회에서 우수성을 입증했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 이화여대 노준혁 교수 연구팀과 공동 연구를 통해, 세계적 권위의 컴퓨터 비전 학회 ICCV 2025에서 열린 Perception Test Challenge의 영상 근거 기반 질의응답(Grounded Video Question Answering) 트랙에서 1위를 차지했다고 28일 밝혔다.
이번 ICCV 2025에서 열린 인지 테스트 대회(Perception Test Challenge)는 구글 딥마인드(Google DeepMind)가 주관하여 총 상금 50,000 유로(한화 약 8,300만원)가 걸린 대회로, 영상·음성·텍스트 등 다양한 데이터를 종합적으로 이해하는 멀티모달 AI의 인지 및 추론 능력을 평가한다. 특히 언어 중심 편향을 벗어나 실제 영상 근거를 바탕으로 판단하는 능력이 핵심 평가 요소다.
우리 대학 연구팀은 영상 전체를 무작정 분석하는 기존 방식과 달리, AI가 정답을 위해 꼭 필요한 핵심 장면(Trigger moment)을 먼저 찾아내도록 만드는 새로운 기술을 개발했다. 쉽게 말하면, “이 질문에 답하려면 이 장면이 결정적이야!”를 AI가 스스로 찾아내도록 설계한 기술이다.
이 프레임워크를 연구팀은 CORTEX(Chain-of-Reasoning for Trigger Moment Extraction)라고 부른다.
연구팀의 시스템은 서로 다른 기능을 수행하는 세 모델이 순차적으로 작동하는 3단계 구조로 구성된다. 먼저 추론 AI(Gemini 2.5 Pro)가 질문에 답하기 위해 어느 순간을 봐야 하는지 사고하고 딱 그 순간(Trigger moment) 후보를 찾는다. 다음으로 객체 위치 찾기 모델(Grounding 모델, Molmo-7B)이 해당 순간 화면 속 사람·차·사물의 정확한 위치(좌표)를 파악한다. 마지막으로 추적 모델(Tracking 모델, SAM2)이 선택된 한 장면을 기준으로 앞뒤 시간대의 객체 움직임을 정밀하게 추적해 오류를 줄인다.
즉, ‘핵심 장면 한 컷을 정확히 찍고, 그 장면을 중심으로 정답 근거를 추적하는 방식’덕분에 영상 초반 오판이나 가려짐 같은 문제도 크게 줄었다.
총 23개 팀이 참여한 영상 근거 기반 질의응답(Grounded VideoQA) 트랙에서 KAIST팀 SGVR Lab(Scalable Graphics, Vision & Robotics Lab)은 ‘고차 추적 정확도(HOTA, Higher Order Tracking Accuracy)’지표에서 0.4968점을 기록하며 2등 미국 콜럼비아대의 0.4304점을 압도적인 점수 차로 상회하며 1위를 차지했다. 이는 전년도 우승 기록 0.2704점보다도 약 두 배에 가까운 성과다.
이 기술은 실생활에서도 넓게 쓰일 수 있다. 자율주행차는 사고 위험이 있는 순간을 정확히 보고, 로봇은 주변 상황을 더 똑똑하게 이해한다. 또 보안·감시 시스템은 중요한 장면을 빠르게 찾아내고, 미디어 분석에서는 사람이나 사물의 행동을 시간 순서대로 정확히 추적할 수 있다.
즉, AI가 “영상 속 실제 근거”를 보고 판단할 수 있도록 만드는 핵심 기술이다. 특히 영상 속 객체가 시간에 따라 어떻게 행동하는지 정확히 짚어내는 능력은 향후 AI의 실제 현장 적용을 크게 확장할 것으로 기대된다.
이번 연구는 ICCV 2025, the 3rd Perception Test Challenge 학회에서 10월 19일자 발표하였다.
이 성과는 과학기술정보통신부 기초연구사업 중견연구와 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 및 AGI 사업 ‘체화형 AGI를 위한 현실 세계 구축과 인지 에이전트 기반 이원 역량 접근법’ 과제의 지원을 받아 수행되었다.
권영진 교수팀, 구글 어워드 수상...‘실제 CPU 없이 버그 잡는다’
최신 CPU는 구조가 복잡해 여러 작업을 동시에 처리하는 과정에서 명령 순서가 뒤섞이는 ‘동시성 버그’가 발생할 수 있으며, 이는 보안 문제로까지 이어질 수 있음에도 기존 방식으로는 발견이 매우 어려웠다. 우리 대학 연구진은 실제 칩 없이도 CPU 내부 동작을 가상 환경에서 정밀하게 재현해 버그를 자동 탐지하는 기술을 세계 최초 수준으로 개발했으며, 이를 통해 최신 리눅스 커널에서 새로운 버그 11건을 찾아 수정하는 데 성공했다.
우리 대학은 전산학부 권영진 교수 연구팀이 구글이 수여하는 ‘Research Scholar Award’(시스템 분야)를 수상했다고 21일 밝혔다.
Google Research Scholar Award는 인공지능, 시스템, 보안, 데이터 관리 등 다양한 분야에서 혁신적 연구를 수행하는 신진 교수(Early-Career Professors)를 지원하기 위해 2020년부터 시행된 글로벌 연구 지원 프로그램이다.
구글 리서치 연구진이 직접 심사하며, 전 세계 수백 명 중 극소수만 선정되는 매우 경쟁적인 프로그램으로 알려져 있다. 특히 이 상은 AI·컴퓨터 시스템 분야에서 세계적으로 가장 권위 있는 산업계 연구 지원 프로그램 중 하나로 인정받고 있으며, 국내 수상 사례도 드물다.
■ 최신 Apple M3·ARM 서버에서 발생하는 동시성 버그 탐지 기술 개발
권 교수팀은 Apple M3(애플의 최신 세대 컴퓨터 프로세서 칩)와 같은 최신 ARM(전력을 적게 쓰고 효율이 높은 CPU 설계 방식) 기반 서버에서 발생하는 동시성 버그(concurrency bug)를 자동으로 탐지하는 기술을 개발했다.
동시성 버그란 CPU가 여러 작업을 동시에 처리하는 과정에서 작업 순서가 꼬여 발생하는 오류로 컴퓨터가 갑자기 멈추거나 해커가 시스템을 공격하는 통로가 될 수 있는 심각한 보안 취약점이다. 그러나 기존 테스트 방식만으로는 이러한 오류를 찾아내기 매우 어려웠다.
■ 실제 CPU 없이도 CPU 내부 동작을 재현해 버그를 자동 탐지
권 교수팀의 핵심 성과는 ‘실제 칩 없이도 CPU 내부 동작을 가상 환경에서 그대로 재현하는 기술’이다. 이 기술을 활용하면 CPU를 분해하거나 실제 칩을 사용하지 않아도 명령이 어떤 순서로 실행되는지, 어디에서 문제가 생기는지 소프트웨어만으로 정밀하게 분석할 수 있다.
이 시스템을 기반으로 리눅스 운영체제를 구동해 자동으로 버그를 탐지한 결과, 연구팀은 최신 리눅스 커널*에서 신규 버그 11개를 발견했고 이를 개발자 커뮤니티에 보고해 모두 수정되었다.
*리눅스 커널(Linux kernel): 전 세계 서버·슈퍼컴퓨터·스마트폰(안드로이드)의 기반이 되는 핵심 운영체제 엔진으로 CPU·메모리·저장장치를 모두 관리하는 시스템의 ‘심장’ 역할을 담당함
구글은 이 기술을 ‘자사 인프라에도 매우 중요한 기술’로 평가하며 해당 Award를 수여했다.
이번 기술은 리눅스뿐 아니라 안드로이드, 윈도우 등 여러 운영체제에도 적용 가능한 범용성을 지닌 것으로 평가되며, 연구팀은 소프트웨어를 오픈소스(GitHub)로 공개해 학계·산업계 누구나 활용할 수 있도록 했다.
권영진 교수는 “이번 수상은 KAIST 시스템 연구의 국제적 경쟁력을 입증한 것”이라며 “앞으로도 안전하고 신뢰성 높은 컴퓨팅 환경 구축을 위한 연구를 지속하겠다”고 말했다.
※ Google Scholar Award 수상 페이지: https://research.google/programs-and-events/research-scholar-program/recipients/
GitHub(기술 오픈소스): https://github.com/casys-kaist/ozz
AI보다 정확한 C→러스트 자동 변환 원천 기술로 전 세계 주목
운영체제 등 전 세계 핵심 소프트웨어의 기반인 C 언어가 보안 한계에 직면한 가운데, 우리 대학 연구진이 이를 대체할 러스트(Rust)로의 정확한 자동 변환을 위한 핵심 원천 기술 연구를 선도적으로 이끌고 있다. 기존 인공지능(LLM) 방식의 한계였던 ‘변환의 수학적 정확성’을 증명하고, C 언어의 보안 문제를 러스트로 자동 변환하여 해결하여, 향후 소프트웨어 보안 연구의 새로운 방향과 비전을 제시함으로써, 세계 최고 권위 학술지 CACM 표지 논문으로 선정되고, KAIST는 컴퓨터 과학 분야에서 세계적 연구 리더십을 입증했다.
우리 대학은 전산학부 류석영 교수 연구팀(프로그래밍 언어 연구실)의 논문이 세계 최대 컴퓨터학회인 ACM(Association for Computing Machinery)이 발행하는 최고 권위 학술지 CACM(Communications of the ACM) 11월호 표지 논문으로 선정되었다고 9일 밝혔다.
이번 논문은 류석영 교수 연구팀이 개발한 C 언어를 러스트(Rust)로 자동 변환하는 기술을 종합하여 다루었으며 향후 이 연구가 나아가야 할 기술적 비전과 학문적 방향을 제시했다는 점에서 국제 연구 커뮤니티의 높은 평가를 받았다.
C 언어는 70년대부터 산업계에서 폭넓게 사용되어 왔으나, 구조적 한계로 인해 심각한 버그와 보안 취약점을 지속적으로 유발해 왔다. 반면, 러스트는 2015년부터 개발된 안전한 프로그래밍 언어로, 운영체제 및 웹 브라우저 개발 등에 사용되며, 프로그램 실행 전에 버그를 탐지하고 방지할 수 있는 특성을 지닌다.
미국 백악관은 2024년 2월 발표한 기술 보고서에서 C 언어 사용 중단을 권고하였고, 미국 국방고등연구계획국(DARPA) 또한 C 코드를 러스트로 자동 변환하는 기술 개발 과제를 추진하며 C 언어의 보안 문제 해결에 러스트가 핵심 대안임을 명시했다.
우리 대학 류 교수 연구팀은 이러한 움직임이 본격화되기 이전부터 C 언어의 안전성 문제와 자동 변환의 중요성을 선제적으로 제기하고, 관련 핵심 기술을 지속적으로 개발해 왔다.
우리 대학 연구팀은 2023년 5월 프로그램 동기화에 필요한 뮤텍스(Mutex) 변환 기술을소프트웨어 공학 분야 최고 권위 학회인 ICSE(International Conference on Software Eng)에서 발표했으며, 2024년 6월에는 결과 전달에 사용되는 출력 파라미터(Output Parameter) 변환 기술을 프로그래밍 언어 분야 최고 학회인 PLDI(Programming Language Design and Implementation)에서, 같은 해 10월에는 다양한 데이터를 함께 저장하는 유니언(Union) 변환 기술을 소프트웨어 자동화 분야 대표 학회인 ASE(Automated Software Eng)에서 각각 발표했다.
이들 세 연구는 모두 세계 최고 수준의 국제 학술대회에서 ‘세계 최초’로 발표된 성과로, 각 기능별 자동 변환 기술을 완성도 높게 구현해 왔다.
연구팀은 2023년 이후 매년 CACM에 논문을 게재하며 세계적으로 중요하고 도전적인 문제를 꾸준히 해결해 온 글로벌 선도 연구진으로 자리매김했다.
이번 논문은 홍재민 박사(KAIST 정보전자연구소 연수연구원)가 제 1저자로 CACM(Communications of the ACM)에 10월 24일 게재되었다.
※논문제목: Automatically Translating C to Rust, DOI: https://doi.org/10.1145/3737696
홍재민 박사는 “우리가 개발한 변환 기술은 프로그래밍 언어 이론에 기반한 원천 기술로, 변환의 ‘정확성’을 논증할 수 있는 것이 큰 강점”이라며, “대부분의 연구가 대규모 언어모델(LLM)에 의존하는 반면, 우리 기술은 변환의 올바름을 수학적으로 보장할 수 있다”고 밝혔다.
홍 박사는 2026년 3월부터 UNIST 컴퓨터공학과 조교수로 부임할 예정이다.
또한 류 교수 연구팀은 소프트웨어 공학 최고 권위 학회 ASE 2025에 C→러스트 변환 기술을 포함한 4편의 논문이 채택되어 발표를 앞두고 있다.
이들 논문은 자동 변환 기술뿐 아니라 ▲양자컴퓨터 프로그램이 제대로 작동하는지 검증하는 기술, ▲웹어셈블리 프로그램(웹에서 빠르고 효율적으로 프로그램 실행하기 위한 기술)의 정확성을 자동으로 검사하고 테스트를 만들어주는 ‘웨스트(WEST)’ 기술, ▲복잡한 웹어셈블리 코드를 자동으로 단순화해 오류를 빠르게 찾아내는 기술 등 첨단 소프트웨어 공학 분야 전반에서 세계적으로 높은 평가를 받고 있다. 이 가운데 웨스트(WEST) 논문은 우수논문상(Distinguished Paper Award)을 받았다.
이번 연구는 한국연구재단 선도연구센터·중견연구자지원사업, 정보통신기획평가원(IITP), 삼성전자의 지원으로 수행되었다.
‘2025 AI 챔피언’등극.. AI가 이제 택시도 스스로 부른다
이제는 단순히 대화만 하는 음성비서를 넘어, AI가 직접 화면을 보고 판단해 택시를 호출하고 SRT 티켓을 예매하는 시대가 열렸다.
우리 대학은 전산학부 신인식 교수(㈜플루이즈 대표)가 이끄는 AutoPhone 팀(플루이즈·KAIST·고려대·성균관대)이 과학기술정보통신부가 주최한 ‘2025 인공지능 챔피언(AI Champion) 경진대회’에서 초대 AI 챔피언(1위)에 선정됐다고 6일 밝혔다.
이번 대회는 AI 기술의 혁신성, 사회적 파급력, 사업화 가능성을 종합 평가하는 국내 최대 규모의 AI 기술 경진대회로, 전국 630개 팀이 참가한 가운데 AutoPhone 팀이 최고 영예를 차지하며 연구개발비 30억 원을 지원받는다.
AutoPhone 팀이 개발한 ‘FluidGPT’는 사용자의 음성 명령을 이해해 스마트폰이 스스로 앱을 실행하고 클릭·입력·결제까지 완료하는 완전 자율형 AI 에이전트 기술이다.
예를 들어, 사용자가 “서울역에서 부산 가는 SRT 예매해줘” 또는 “택시 불러줘”라고 말하면, FluidGPT는 실제 앱을 열고 필요한 단계를 순차적으로 수행해 결과를 완성한다.
이 기술의 핵심은 ‘비침습형(API-Free)’ 구조다. 기존에는 택시 앱(API) 을 이용해 직접 호출 기능을 실행해서 앱 내부 시스템에 연결(API 통신) 해야 했다. 반면 이 기술은 기존 앱의 코드를 수정하거나 앱(API)을 연동하지 않고, AI가 화면(UI)을 직접 인식하고 조작함으로써 사람처럼 스마트폰을 다룰 수 있는 능력을 갖췄다.
이로써 FluidGPT는 “사람처럼 보고, 판단하고, 손을 대신 움직이는 AI”라는 새로운 패러다임을 제시하며, ‘AI폰 시대’를 여는 핵심 기술로 평가받고 있다.
FluidGPT는 기존의 단순 음성비서를 넘어, AI가 직접 화면을 보고 판단하여 행동하는 ‘Agentic AI’(행동형 인공지능) 개념을 구현했다. AI가 앱 버튼을 클릭하고 입력 필드를 채우며 데이터를 참조해 사용자의 목적을 스스로 달성하는 완전 행동형 시스템으로, 스마트폰 사용 방식의 혁신을 예고하고 있다.
전산학부 신인식 교수는 “AI가 이제 대화에서 행동으로 진화하고 있다. FluidGPT는 사용자의 말을 이해하고 실제 앱을 스스로 실행하는 기술로, ‘AI폰 시대’의 출발점이 될 것이다. AutoPhone 팀은 세계적 수준의 연구 역량을 갖추고 있으며, 앞으로 모두가 쉽게 사용할 수 있는 AI 서비스 확산에 기여하겠다”고 소감을 밝혔다.
이광형 KAIST 총장은 “이번 성과는 KAIST의 AI 융합 비전을 보여주는 대표적인 사례”라며 “AI 기술이 국민 생활 속으로 들어와 새로운 혁신의 변화를 이끌고 있다”고 말했다.
이어 “KAIST는 앞으로도 AI와 반도체 등 미래 핵심기술 연구를 선도해 국가 경쟁력에 힘을 보태겠다”고 덧붙였다.
휴대폰 사진 단 몇 장으로 구현한 생생한 3D 가상 환경 속으로
기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀하게 측정하고, 수천 장의 사진을 카메라 위치 정보와 함께 보정해야 하는 번거로운 과정을 거쳐야 했다. 우리 대학 연구진은 이러한 한계를 극복하고 단 2~3장의 일반 사진만으로도 실험실이나 도심을 고정밀 3D 공간으로 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 선보였다. 이로써 ‘현실을 찍으면 곧바로 가상 환경이 되는’새로운 패러다임을 제시했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 정밀한 카메라 위치 정보 없이도 일반 영상만으로 고품질의 3차원 장면을 복원할 수 있는 새로운 기술 ‘SHARE(Shape-Ray Estimation)’를 개발했다고 6일 밝혔다.
기존의 3D 복원 기술은 소수의 영상으로 3차원 장면을 재현하기 위해 촬영 당시의 정밀한 카메라 위치와 방향 정보가 필수적으로 요구되어, 고가의 특수 장비나 복잡한 보정 과정이 필요하다는 한계가 있었다. 이러한 제약 때문에 실제 환경에서의 적용이 어렵고, 대중적 활용에도 제동이 걸려왔다.
연구팀은 이러한 문제를 해결하기 위해, 단 2~3장의 일반 사진만으로도 3차원 장면과 카메라의 방향을 동시에 추정해 정확한 3D 모델을 구축하는 기술을 개발했다. 별도의 추가 학습이나 정밀한 보정 과정 없이도 실제 환경에서 신속하고 정밀한 복원이 가능해 효율성과 범용성이 매우 높은 기술로 평가받고 있다.
핵심 기술인 SHARE는 영상 속에서 사물의 형태(Shape)와 카메라의 시선 방향(Ray)을 동시에 추정하는 새로운 방식을 도입했다.
기존 방식이 카메라 위치를 미리 알아야 3D 구조를 계산할 수 있었다면, SHARE는 영상 자체에서 공간 정보를 스스로 찾아내어 카메라와 구조를 추론한다. 이를 통해 서로 다른 위치에서 촬영된 다중 영상을 하나의 공통된 공간으로 정렬하고, 형상 왜곡 없이 안정적인 3D 복원을 실현했다.
윤성의 교수는 “SHARE 기술은 3D 복원의 진입 장벽을 획기적으로 낮춘 기술로, 건설·미디어·게임 등 다양한 산업에서 스마트폰 카메라만으로도 고품질 콘텐츠 제작을 가능하게 할 것”이라며 “로봇과 자율주행 분야에서도 저비용 시뮬레이션 환경 구축 등 다양한 응용 가능성이 있다”고 밝혔다.
이번 연구는 나영주 박사과정, 김태연 석사과정 학생이 공동 제1저자로 참여했으며, 연구 결과는 국제 이미지 처리 학회(IEEE International Conference on Image Processing, ICIP 2025)에서 9월 17일 발표되어 ‘최고 학생논문상(Best Student Paper Award)’을 수상했다.
이 상은 올해 채택된 643편의 논문 중 단 한 편에게만 수여되는 영예(수상률 0.16%)로, KAIST 연구진의 우수한 연구역량을 다시 한 번 입증했다.
*논문명 : Pose-free 3D Gaussian Splatting via Shape-Ray Estimation, DOI https://arxiv.org/abs/2505.22978
*수상정보: https://www.linkedin.com/posts/ieeeicip_congratulations-to-the-icip-2025-best-activity-7374146976449335297-6hXz
이번 성과는 과학기술정보통신부 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 과제지원으로 수행되었다.
‘나빌레라’처럼 춤추는 아바타...AI가 움직임 이해하고 그려
AI가 단순히 ‘그럴듯하게 그리는 수준’을 넘어, 옷이 왜 흔들리고 주름이 생기는지까지 이해하는 시대가 열렸다. 우리 대학 연구진은 3차원 공간에서의 움직임과 상호작용을 실제 물리 법칙처럼 학습하는 새로운 생성형 AI를 개발했다. 기존 2D 기반 영상 AI의 한계를 뛰어넘은 이번 기술은 영화, 메타버스, 게임 속 아바타의 현실감을 높이고 모션캡처나 3D 그래픽 수작업을 크게 줄일 수 있을 것으로 기대를 모은다.
우리 대학은 전산학부 김태균 교수 연구팀이 기존 2D 픽셀 기반 영상 생성 기술의 한계를 극복한 공간·물리 기반 생성형 AI 모델 ‘MPMAvatar’를 개발했다고 22일 밝혔다.
연구팀은 기존 2D 기술의 문제를 해결하기 위해, 가우시안 스플래팅(Gaussian Splatting)으로 다중 시점 영상을 3차원 공간으로 재구성하고, 여기에 물리 시뮬레이션 기법(Material Point Method, MPM)을 결합한 새로운 방식을 제안했다.
즉, 여러 시점에서 촬영한 영상을 입체적으로 재구성하고, 그 안에서 물체가 실제처럼 움직이며 상호작용하도록 물리 법칙을 AI가 스스로 학습하게 한 것이다.
이를 통해 물체의 재질·형태·외부 힘에 따른 움직임을 계산하고, 그 결과를 실제 영상과 비교해 AI가 물리 법칙을 스스로 학습할 수 있도록 했다.
연구팀은 3차원 공간을 점(포인트) 단위로 표현하고, 각 점에 가우시안과 MPM을 함께 적용해 물리적으로 자연스러운 움직임과 사실적인 영상 렌더링을 동시에 구현했다.
즉, 3D 공간을 수많은 작은 점들로 쪼개어 각 점이 실제 물체처럼 움직이고 변형되도록 만들어, 현실과 거의 구분이 안 될 만큼 자연스러운 영상을 구현한 것이다.
특히 옷처럼 얇고 복잡한 물체의 상호작용을 정밀하게 표현하기 위해, 물체의 표면(메쉬)과 입자 단위 구조(포인트)를 함께 계산하고, 3차원 공간에서 물체의 움직임과 변형을 물리 법칙에 따라 계산하는 MPM(Material Point Method) 기법을 활용했다.
또한, 옷이나 물체가 움직이며 서로 부딪히는 장면을 사실적으로 재현하기 위해 새로운 충돌 처리(collision handling) 기술을 개발했다.
이 기술을 적용한 생성형 AI 모델 MPMAvatar는 느슨한 옷을 입은 사람의 움직임과 상호작용을 사실적으로 재현하고, AI가 학습 과정에서 본 적 없는 데이터도 스스로 추론해 처리하는 ‘제로샷(Zero-shot)’생성에도 성공했다.
제안된 기법은 강체, 변형 가능한 물체, 유체 등 다양한 물리적 특성을 표현할 수 있어, 아바타뿐만 아니라 일반적인 복잡한 장면 생성에 활용될 수 있다.
김태균 교수는 “이번 기술은 AI가 단순히 그림을 그리는 것을 넘어, 눈앞의 세계가 ‘왜’ 그렇게 보이는지까지 이해하도록 만든 것으로 물리 법칙을 이해하고 예측하는 ‘Physical AI’의 가능성을 보여준 연구로 이는 AGI(범용 인공지능)로 가는 중요한 전환점”이라고 설명했다. 이어 “가상 프로덕션, 영화, 숏폼, 광고 등 실감형 콘텐츠 산업 전반에 실질적으로 적용돼 큰 변화를 만들어낼 것”이라고 기대를 밝혔다.
현재 연구팀은 이 기술을 확장해, 사용자의 텍스트 입력만으로도 물리적으로 일관된 3D 동영상을 생성할 수 있는 모델 개발을 진행 중이다.
이번 연구는 KAIST 김재철AI대학원 이창민 석사과정 학생이 제1저자로, KAIST 전산학부 이지현 박사과정 학생이 공저자로 참여하였고, 연구 결과는 AI 분야 최고 권위 국제학술대회인 NeurIPS 12월 2일에 발표하며, 프로그램 코드는 모두 공개될 예정이다.
*논문: C. Lee, J. Lee, T-K. Kim, MPMAvatar: Learning 3D Gaussian Avatars with Accurate and Robust Physics-Based Dynamics,Proc. of Thirty-NinthAnnual Conf. on Neural Information Processing Systems (NeurIPS), San Diego, US, 2025
arXiv버전: https://arxiv.org/abs/2510.01619
*관련 프로젝트 사이트: https://kaistchangmin.github.io/MPMAvatar/
*AI가 그려낸 나빌레라처럼 춤추는 관련 동영상 링크: https://www.youtube.com/shorts/ZE2KoRvUF5c, https://youtu.be/ytrKDNqACqM
한편, 이 연구는 과학기술정보통신부와 정보통신기획평가원(IITP)이 지원하는 인간지향적 차세대 도전형 범용AI기술 개발사업(RS-2025-25443318)과 생성AI 선도인재양성 사업의(RS-2025-25441313) 지원을 받아 수행되었다.
스트레스 많으면 냉장고 사용↑... IoT 센서로 정신건강 읽는다
국내 1인 가구가 800만 세대를 넘어 전체의 36%를 차지하며 역대 최고치를 기록했다. 서울시 조사에 따르면 1인 가구의 62%가 ‘외로움’을 느끼는 등 고립감과 정신건강 문제가 심화되고 있다. 우리 대학 연구진은 스마트폰·웨어러블의 한계를 넘어, 가정 내 IoT 데이터를 통해 일상 리듬이 흐트러질수록 정신건강이 악화되는 핵심 신호임을 밝혀냈다. 이번 연구는 개인 맞춤형 정신건강 관리 시스템 개발의 기반이 될 것으로 기대된다.
우리 대학은 전산학부 이의진 교수 연구팀이 가정 내 사물인터넷(IoT) 센서 데이터를 활용해 개인의 정신건강 상태를 정밀하게 추적할 수 있는 가능성을 입증했다고 21일 밝혔다.
정신건강 관리를 위해선 자신의 상태를 꾸준히 파악하는 것이 중요하지만, 기존의 스마트폰이나 웨어러블 기반 추적 방식은 사용자가 기기를 착용하거나 소지하지 않는 집 안에서는 데이터가 누락되는 한계가 있었다.
이에 연구팀은 가정 내 환경 데이터에 주목했다. 청년층 1인 가구 20세대를 대상으로 4주간 실증 연구를 진행하며, 가전제품과 수면 매트, 움직임 센서 등을 설치해 IoT 데이터를 수집하고, 스마트폰·웨어러블 데이터와 함께 분석했다.
그 결과, IoT 데이터를 함께 활용할 때 정신건강의 변화를 기존 방식보다 훨씬 정확하게 포착할 수 있음이 확인됐다. 예를 들어 수면 시간 감소는 우울·불안·스트레스 수준 증가와 밀접하게 연관됐으며, 실내 온도 상승 또한 불안 및 우울과의 상관관계를 보였다.
참가자들의 행동 패턴은 스트레스 상황에서 냉장고 사용이 늘어나는 ‘폭식형’, 활동량이 급감하는 ‘무기력형’ 등으로 다양했지만, 공통적으로 생활 패턴이 불규칙할수록 정신건강이 악화되는 경향이 뚜렷하게 나타났다.
특정 행동의 빈도보다 일상 패턴의 변동성이 더 중요한 요인으로 확인됐으며, 이는 규칙적인 생활이 정신건강 유지에 핵심적임을 시사한다.
연구 참여자들이 자신의 생활 데이터를 시각화 소프트웨어를 통해 확인한 결과 사생활 침해에 대한 우려보다, 데이터가 정신건강 이해에 실질적인 도움이 된다는 인식을 갖게 되었다. 이로 인해 연구 수용성과 참여 만족도가 크게 향상됐다.
이의진 교수는 “이번 연구는 가정 내 IoT 데이터가 개인의 생활 맥락 속에서 정신건강을 이해하는 중요한 단서가 될 수 있음을 보여주었다”며, “향후 AI를 활용해 개인별 생활 패턴을 예측하고 맞춤형 코칭이 가능한 원격 의료 시스템 개발로 발전시킬 계획”이라고 밝혔다.
이번 연구에는 고영지 박사과정 학생이 제 1저자로 참여했으며, 연구결과는 인간-컴퓨터 상호작용(HCI) 분야의 저명한 국제 학술지인 ACM 인터랙티브, 모바일, 웨어러블 및 유비쿼터스 기술 논문집(Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies)에 9월호에 게재되었다.
※ Harnessing Home IoT for Self-tracking Emotional Wellbeing: Behavioral Patterns, Self-Reflection, and Privacy Concerns DOI: https://dl.acm.org/doi/10.1145/3749485
※ 고영지(KAIST, 1저자), 이찬희 (KAIST, 2저자), 정은기(KAIST, 3저자), 이현수(KAIST, 교신저자), 이의진(KAIST, 교신저자)
한편 이번 연구는 LG전자-KAIST 디지털 헬스케어 연구센터와 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행됐다.
트랜스포머의 지능과 맘바의 효율 합한 AI 반도체 두뇌 개발
최근 인공지능(AI) 모델이 길고 복잡한 문장을 이해하고 처리하는 능력이 커지면서, 연산 속도와 메모리 효율을 동시에 높일 수 있는 새로운 반도체 기술의 필요성이 커지고 있다. 이런 가운데 우리 대학 ·국제연구진이 거대언어모델(LLM)의 추론 속도는 4배 높이면서 전력 소비는 2.2배 줄인 트랜스포머(Transformer)와 맘바(Mamba) 하이브리드 구조 기반의 AI 반도체 핵심 두뇌 기술을 세계 최초로 메모리 내부에서 직접 연산이 가능한 형태로 구현하는 데 성공했다.
우리 대학은 박종세 교수 연구팀이 미국 조지아 공과대학교(Georgia Institute of Technology) 및 스웨덴 웁살라 대학교(Uppsala University)와 공동연구를 통해, 차세대 인공지능 모델의 두뇌 역할을 하는 ‘AI 메모리 반도체(PIM, Processing-in-Memory)’ 기반 기술 ‘PIMBA’를 개발했다고 17일 밝혔다.
현재 ChatGPT, GPT-4, Claude, Gemini, Llama 등 LLM은 모든 단어를 동시에 보는 ‘트랜스포머(Transformer)’ 두뇌 구조를 기반으로 작동한다. 이에 따라, AI 모델이 커지고 처리 문장이 길어질수록 연산량과 메모리 요구량이 급증해, 속도 저하와 에너지 소모가 주요 문제로 지적돼 왔다.
이런 트랜스포머 문제점을 보완하기 위해 최근 제시된 순차형 기억형 두뇌인 ‘맘바(Mamba)’ 구조는 시간의 흐름에 따라 정보를 처리하는 방식을 도입해 효율을 높였지만, 여전히 메모리 병목 현상(memory bottleneck)과 전력 소모 한계가 남아 있었다.
박종세 교수 연구팀은 트랜스포머와 맘바의 장점을 결합한 ‘트랜스포머–맘바 하이브리드 모델’의 성능을 극대화하기 위해, 연산을 메모리 내부에서 직접 수행하는 새로운 반도체 구조 ‘PIMBA’를 설계했다.
기존 GPU 기반 시스템은 데이터를 메모리 밖으로 옮겨 연산을 수행하지만, PIMBA는 데이터를 옮기지 않고 저장장치 내부에서 바로 계산을 수행한다. 이로써 데이터 이동 시간을 최소화하고 전력 소모를 크게 줄일 수 있다.
그 결과, 실제 실험에서 PIMBA는 기존 GPU 시스템 대비 처리 성능이 최대 4.1배 향상되었고, 에너지 소비는 평균 2.2배 감소하는 성과를 보였다.
연구 성과는 오는 10월 20일 서울에서 열리는 세계적 컴퓨터 구조 학술대회 ‘제58회 국제 마이크로아키텍처 심포지엄(MICRO 2025)’에서 발표될 예정이며, 앞서 ‘제31회 삼성휴먼테크 논문대상’ 금상을 수상해 우수성을 인정받았다.
※논문명: Pimba: A Processing-in-Memory Acceleration for Post-Transformer Large Language Model Serving, DOI: 10.1145/3725843.3756121
이번 연구는 정보통신기획평가원(IITP), 인공지능반도체대학원 지원사업, 그리고 과학기술정보통신부와 정보통신기획평가원의 ICT R&D 프로그램의 일환으로 한국전자통신연구원(ETRI)의 지원을 받아 수행되었으며, EDA 툴은 반도체설계교육센터(IDEC)의 지원을 받았다.
이태원 참사 예방 AI 군중밀집 예측 기술 나왔다
이태원 참사와 같은 다중밀집사고를 예방하려면 단순 인원수 파악을 넘어 인파의 유입·이동 경로를 실시간으로 감지하는 기술이 필요하다. 우리 대학 연구진이 군중 밀집 예측 신기술을 개발하는 데 성공했다. 이제 대규모 인파가 모이는 축제·행사, 도심 교통 혼잡 완화뿐 아니라 감염병 확산 대응 등에도 활용될 수 있다.
우리 대학 전산학부 이재길 교수 연구팀이 군중 밀집 상황을 더 정확하게 예측할 수 있는 새로운 인공지능 기술을 개발했다고 17일 밝혔다.
군중이 모이는 양상은 단순히 인원수 증감으로만 설명되지 않는다. 같은 인원이라도 어디서 유입되고 어느 방향으로 빠져나가는지에 따라 위험 수준이 달라진다.
이재길 교수팀은 이러한 움직임을 ‘시간에 따라 변하는 그래프(time-varying graph)’라는 개념으로 표현했다. 즉, 특정 지역에 몇 명이 있는지(정점 정보)와 지역 간 인구 흐름이 어떤지(간선 정보)를 동시에 분석해야만 정확한 예측이 가능하다는 것이다.
반면 지금까지의 대부분 연구는 한 가지 정보만 이용했다. ‘현재 몇 명이 모여있나?’ 혹은 ‘어느 경로로 사람들이 몰려가고 있나?’에만 집중했던 것이다. 하지만 연구팀은 두 가지를 결합해야만 진짜 위험 신호를 잡아낼 수 있다고 강조했다.
예를 들어, 특정 골목 A의 밀집도가 급증하는 현상은 단순히 ‘현재 인원’만으로는 예측하기 어렵다. 그러나 인근 지역 B에서 계속해서 A 방향으로 인파가 몰려오는 흐름(간선 정보)을 함께 보면, ‘곧 A 지역이 위험하다’는 신호를 미리 포착할 수 있다.
연구팀은 이를 위해 ‘바이모달 학습(bi-modal learning)’ 방식을 개발했다. 이는 인구수(정점 정보)와 인구 흐름(간선 정보)을 동시에 고려하면서, 공간적 관계(어느 지역끼리 연결돼 있는지)와 시간적 변화(언제, 어떻게 이동이 발생하는지)를 함께 학습하는 기술이다.
특히 연구팀은 3차원 대조 학습(3D contrastive learning) 기법을 도입했다. 즉, 2차원 공간(지리) 정보뿐만 아니라 시간 정보를 더해 모두 3차원 관계성을 학습하고자 했다. 이를 통해 인공지능이 단순히 ‘지금 인구가 많은지, 적은지’가 아니라 ‘시간에 따라 어떤 패턴으로 밀집이 진행하고 있는지’를 읽어낼 수 있게 됐다. 그 결과, 기존보다 훨씬 더 정확하게 혼잡 발생 장소와 시점을 예측할 수 있다.
연구팀은 서울·부산·대구 지하철과 뉴욕 교통 데이터, 한국·뉴욕의 코로나19 확진자 수 등 실세계 데이터를 직접 수집·가공해 연구용 데이터셋 6종을 구축하고 공개했다.
제안 기술을 검증한 결과, 기존 최신 방법 대비 최대 76.1% 높은 예측 정확도를 기록하며 세계 최고 수준의 성능을 입증했다.
이재길 교수는 “사회적 파급력을 낼 수 있는 기술 개발이 중요하다”며 “이번 기술이 대형 행사 인파 관리, 도심 교통 혼잡 완화, 감염병 확산 억제 등 일상 속 안전을 지키는 데 크게 기여하길 바란다”고 말했다.
이번 연구에는 KAIST 전산학부 남영은 박사과정 학생이 제1 저자로, 나지혜 박사과정 학생이 공저자로 참여했다. 연구 성과는 데이터마이닝 분야 최고 권위 국제학술대회인 ‘지식발견및데이터마이닝학회(KDD) 2025’에서 지난 8월 발표됐다.
※ 논문명: Bi-Modal Learning for Networked Time Series
※ DOI: https://doi.org/10.1145/3711896.3736856
한편, 이 기술은 중견연구 과제(RS-2023-NR077002, 인공지능 및 모빌리티 빅데이터 기반 군중관리 시스템 핵심기술 연구)와 사람중심인공지능핵심원천기술개발 과제(RS-2022-II220157, 강건하고 공정하며 확장 가능한 데이터 중심의 연속 학습)의 연구성과이다.
단 2달러로 무너진 토르.. 토르 취약점 해결책 제시
우리 연구진이 세계 최대 익명 네트워크 ‘토르(Tor)’의 보안 취약점을 규명하고 해결책까지 제시함으로써, 국내 연구진으로서는 처음으로 글로벌 보안 연구의 새로운 이정표를 세웠다.
우리 대학 전산학부 강민석 교수 연구팀이 지난 8월 13일부터 15일까지 미국 시애틀에서 열린 유즈닉스 보안 학술대회(USENIX Security 2025)에서 우수논문상(Honorable Mention Award)을 수상했다고 12일 밝혔다.
유즈닉스 보안 학술대회는 정보보안 분야 세계 최고 권위 학회로, 구글 스칼라 h-5 인덱스 기준 보안·암호학 분야 전체 학술대회 및 저널 가운데 1위를 차지하고 있다. 우수논문상은 전체 논문 중 약 6%에만 주어지는 영예다.
이번 연구는 세계 최대 익명 네트워크인 ‘토르(Tor)’에서 발생할 수 있는 새로운 서비스 거부(DoS) 공격 취약점을 발견하고, 이를 해결하기 위한 방법을 제시한 것이 핵심이다. 토르 익명 웹사이트(Tor Onion Service)는 익명성을 기반으로 하는 다양한 서비스의 핵심 기술로, 전세계적으로 매일 수백만명의 사용자가 이용하는 대표적인 프라이버시 보호 수단이다.
연구팀은 토르의 혼잡도 인식 방식이 안전하지 않음을 밝혀냈으며, 실제 네트워크 실험을 통해 단 2달러의 비용으로 웹사이트를 마비시킬 수 있음을 입증했다. 이는 기존 공격 대비 0.2% 수준의 비용이다. 특히 기존 토르에 구현된 서비스 거부(DoS) 공격에 대한 보안 기법이 오히려 공격을 더욱 악화시킬 수 있음을 최초로 규명했다는 점에서 주목 받았다.
또한 연구팀은 수학적 모델링을 통해 해당 취약점이 발생하는 원리를 규명하고, 토르가 익명성과 이용가능성 사이에서 균형을 유지할 수 있는 가이드라인을 제시했다. 이 가이드라인은 토르 개발진에 전달되어 현재 점진적으로 패치를 적용 중이다.
앞서 지난 2월 토르 창립자 로저 딩글다인(Roger Dingledine)이 KAIST를 방문해 연구팀과 협력 논의를 진행했으며, 토르 운영진은 연구팀의 선제적 제보에 감사의 뜻으로 지난 6월 약 800달러 상당의 버그 현상금을 지급했다.
강민석 교수는 “토르 익명성 시스템 보안은 세계적으로 활발히 연구되고 있지만, 국내에서는 이번이 최초의 보안 취약점 연구 사례라는 점에서 큰 의미가 있다”며, “이번에 확인된 취약점은 위험도가 매우 높아 학회 현장에서 다수의 토르 보안 연구자들의 큰 주목을 받았다. 앞으로는 토르 시스템의 익명성 강화뿐 아니라 토르 기술을 활용한 범죄 수사 분야까지 아우르는 종합적 연구를 이어가겠다”고 덧붙였다.
이번 연구는 이진서 박사과정(제1저자), 김호빈 연구원(제2저자, KAIST 정보보호대학원 석사 졸업·現 미국 카네기멜런대 박사과정)가 진행했다.
※논문 제목: Onions Got Puzzled: On the Challenges of Mitigating Denial-of-Service Problems in Tor Onion Services
※논문 정보: https://www.usenix.org/conference/usenixsecurity25/presentation/lee
이번 성과는 국내 최초의 선도적인 토르 보안 취약점 연구로 인정받아, 강 교수 연구실이 2025년 과학기술정보통신부 기초연구사업(글로벌 기초연구실)에 선정되는 데 결정적인 역할을 했다.
연구팀은 이 사업을 통해 이화여자대학교, 성신여자대학교와 국내 연구 협력체계를 구축하고, 미국·영국 연구자들과 국제 연구 협력을 확대해 향후 3년간 토르 취약점 및 익명성 관련 심화 연구를 수행할 계획이다.
세계 최고 DB 통합기술로 진짜 똑똑한 AI 에이전트 현실로
기업들은 오랫동안 데이터를 관리하는 데 관계형 데이터베이스(DB)를 써왔다. 하지만 거대 AI 모델 활용이 늘면서, 이제는 그래프 DB와의 통합 운영이 요구된다. 그러나 이 과정에서 비용 부담, 데이터 불일치, 복합 질의 처리의 어려움 같은 한계가 드러난다. 우리 연구진은 이 같은 문제를 단번에 해결할 수 있는 차세대 그래프-관계형 DB 시스템 개발에 성공했으며, 곧바로 산업 현장에 적용될 것으로 기대된다. 이 기술이 적용되면 AI는 단순 검색을 넘어 복잡한 연결 관계까지 실시간으로 추론할 수 있어, 한층 똑똑한 AI 서비스 구현이 가능해질 것이다.
우리 대학 전산학부 김민수 교수 연구팀이 관계형 DB와 그래프 DB를 완전 통합하여 그래프-관계형 질의를 한층 효율적으로 실행할 수 있는 새로운 DB 시스템 ‘키마이라(이하 Chimera)’를 개발했다고 8일 밝혔다. Chimera는 국제 성능 표준 벤치마크에서 기존 시스템 대비 최소 4배에서 최대 280배 빠른 질의 처리 성능을 입증하며 세계 최고 수준을 기록했다.
기존 관계형 DB와 달리, 그래프 DB는 데이터를 정점(노드)과 간선(연결선)으로 표현하는 구조를 가지고 있어 사람·사건·장소·시간처럼 복잡하게 얽힌 정보를 분석하고 추론하는 데 강점을 지닌다. 이러한 특징 덕분에 최근에는 AI 에이전트, SNS, 금융, 전자상거래 등 다양한 분야에서 활용이 빠르게 확산되고 있다.
이와 함께 관계형 DB와 그래프 DB 간의 복합 질의 처리 수요가 커지면서, 관계형 질의 언어(SQL)에 그래프 질의 기능을 확장한 신규 표준 언어 ‘SQL/PGQ’도 제안됐다.
SQL/PGQ는 기존 데이터베이스 언어(SQL)에 그래프 탐색 기능을 추가한 새로운 표준 언어로, 표(테이블) 형태의 데이터와 사람·사건·장소 등 연결 관계 정보를 한 번에 질의(검색)할 수 있도록 설계됐다. 이를 활용하면 ‘이 사람의 친구의 친구가 어느 회사에 다니는가’와 같은 복잡한 관계도 기존보다 훨씬 간단하게 검색할 수 있다.
문제는 지금까지의 접근 방식이 그래프 탐색을 억지로 조인 연산으로 흉내 내거나, 메모리에 그래프 뷰(view)를 미리 구성해 처리하는 방법에 의존했다는 점이다. 전자의 경우 탐색 단계가 깊어질수록 성능이 급격히 떨어지고, 후자의 경우 데이터 규모가 조금만 커져도 메모리 부족으로 실행이 실패한다. 또 원본 데이터 변경이 뷰에 즉시 반영되지 않아 데이터 최신성이 떨어지고, 관계형 결과와 그래프 결과를 따로 결합해야 하는 비효율이 뒤따랐다.
우리 대학 연구팀이 개발한 ‘Chimera(키마이라)’는 이러한 한계를 근본적으로 해결했다. 연구팀은 데이터베이스의 저장 계층과 질의 처리 계층을 모두 새롭게 설계했다.
연구팀은 우선 그래프 전용 저장소와 관계형 데이터 저장소를 함께 운영하는 ‘듀얼 스토어 구조’를 도입했다. 여기에 그래프 탐색과 관계형 연산을 동시에 처리하는 ‘탐색-조인 연산자’를 적용해, 복잡한 연산을 단일 체계에서 효율적으로 실행할 수 있도록 했다. 덕분에 Chimera는 데이터 저장부터 질의 처리까지 전 과정을 하나로 통합한 세계 최초의 그래프-관계형 DB 시스템으로 자리매김했다.
그 결과, 국제 성능 표준 벤치마크인 ‘LDBC Social Network Benchmark(SNB)’에서 기존 시스템 대비 최소 4배에서 최대 280배 빠른 성능을 기록하며 세계 최고 수준을 입증했다.
그래프 데이터의 규모가 아무리 커져도 메모리 부족으로 인한 질의 실패가 발생하지 않으며, 뷰를 사용하지 않기 때문에 데이터 최신성 측면에서도 지연 문제가 없다.
김민수 교수는 “데이터 간 연결 관계가 갈수록 복잡해지는 만큼, 그래프와 관계형 DB를 아우르는 통합 기술의 필요성이 커지고 있다”며 “Chimera는 이 문제를 근본적으로 해결한 기술로, 앞으로 AI 에이전트, 금융, 전자상거래 등 다양한 산업에서 널리 쓰일 것으로 기대한다”고 밝혔다.
이번 연구에는 전산학부 이건호 박사과정이 제1저자로, 김민수 교수의 창업기업 ㈜그래파이의 박정호 엔지니어가 제2저자로 참여했으며, 김 교수가 교신저자를 맡았다.
연구 성과는 지난 9월 1일, 세계적 권위의 데이터베이스 분야 국제학술대회 VLDB에서 발표됐다. 특히 새롭게 개발된 Chimera 기술은 ㈜그래파이가 출시 예정인 벡터-그래프-관계형 DB 시스템 ‘AkasicDB’에 적용돼, ‘RAG 기반 고성능 AI 에이전트(검색 능력을 갖춘 똑똑한 AI 비서)’ 구현을 위한 핵심 기술로 즉각적인 산업적 파급력이 기대된다.
※ 논문제목: Chimera: A System Design of Dual Storage and Traversal-Join Unified Query Processing for SQL/PGQ
※ DOI: https://dl.acm.org/doi/10.14778/3705829.3705845
한편, 이번 연구는 과기정통부 IITP SW스타랩과 한국연구재단 중견과제의 지원을 받아 수행됐다.