
< (왼쪽부터) 뇌인지과학과 백세범 교수, 이상완 교수, 천정환 석사과정 >
인간의 두뇌는 외부 세상으로부터 감각 정보를 받아들이기 이전부터 자발적인 무작위 활동을 통해 학습을 시작한다. 우리 연구진이 개발한 기술은 뇌 모방 인공신경망에서 무작위 정보를 사전 학습시켜 실제 데이터를 접했을 때 훨씬 빠르고 정확한 학습을 가능하게 하며, 향후 뇌 기반 인공지능 및 뉴로모픽 컴퓨팅 기술 개발의 돌파구를 열어줄 것으로 기대된다.
우리 대학 뇌인지과학과 백세범 교수 연구팀이 뇌 모방 인공신경망 학습의 오래된 난제였던 가중치 수송 문제(weight transport problem)*를 해결하고, 이를 통해 생물학적 뇌 신경망에서 자원 효율적 학습이 가능한 원리를 설명했다고 23일 밝혔다.
*가중치 수송 문제: 생물학적 뇌를 모방한 인공지능 개발에 가장 큰 장애물이 되는 난제로, 현재 일반적인 인공신경망의 학습에서 생물학적 뇌와 달리 대규모의 메모리와 계산 작업이 필요한 근본적인 이유임.
지난 수십 년간 인공지능의 발전은 올해 노벨 물리학상을 받은 제프리 힌튼(Geoffery Hinton)이 제시한 오류 역전파(error backpropagation) 학습에 기반한다. 그러나 오류 역전파 학습은 생물학적 뇌에서는 가능하지 않다고 생각되어 왔는데, 이는 학습을 위한 오류 신호를 계산하기 위해 개별 뉴런들이 다음 계층의 모든 연결 정보를 알고 있어야 하는 비현실적인 가정이 필요하기 때문이다.

< 그림 1. 무작위 정보 훈련의 방법과 그 효과를 묘사하는 그림 >
가중치 수송 문제라고 불리는 이 난제는 1986년 힌튼에 의해 오류 역전파 학습이 제안된 이후, DNA 구조의 발견으로 노벨 생리의학상을 받은 프랜시스 크릭(Francis Crick)에 의해 제기됐으며, 이후 자연신경망과 인공신경망 작동 원리가 근본적으로 다를 수밖에 없는 이유로 여겨진다.
인공지능과 신경과학의 경계선에서, 힌튼을 비롯한 연구자들은 가중치 수송 문제를 해결함으로써 뇌의 학습 원리를 구현할 수 있는, 생물학적으로 타당한 모델을 만들고자 하는 시도를 계속해 왔다.
지난 2016년, 영국 옥스퍼드(Oxford) 대학과 딥마인드(DeepMind) 공동 연구진은 가중치 수송을 사용하지 않고도 오류 역전파 학습이 가능하다는 개념을 최초로 제시해 학계의 주목을 받았다. 그러나, 가중치 수송을 사용하지 않는 생물학적으로 타당한 오류 역전파 학습은 학습 속도가 느리고 정확도가 낮은 등 효율성이 떨어져, 현실적인 적용에는 문제가 있었다.
연구팀은 생물학적 뇌가 외부적인 감각 경험을 하기 이전부터 내부의 자발적인 무작위 신경 활동을 통해 이미 학습을 시작한다는 점에 주목했다. 이를 모방해 연구팀은 가중치 수송이 없는 생물학적으로 타당한 신경망에 의미 없는 무작위 정보(random noise)를 사전 학습시켰다.

< 그림 2. 무작위 정보 훈련의 메타 학습 효과를 묘사하는 그림 >
그 결과, 오류 역전파 학습을 위해 필수적 조건인 신경망의 순방향과 역방향 신경세포 연결 구조의 대칭성이 만들어질 수 있음을 보였다. 즉, 무작위적 사전 학습을 통해 가중치 수송 없이 학습이 가능해진 것이다.
연구팀은 실제 데이터 학습에 앞서 무작위 정보를 학습하는 것이 ‘배우는 방법을 배우는’메타 학습(meta learning)의 성질을 가진다는 것을 밝혔다. 무작위 정보를 사전 학습한 신경망은 실제 데이터를 접했을 때 훨씬 빠르고 정확한 학습을 수행하며, 가중치 수송 없이 높은 학습 효율성을 얻을 수 있음을 보였다.

< 그림 3. 인공신경망을 통해 뇌의 작동 원리를 이해하는 연구를 묘사하는 일러스트레이션 >
백세범 교수는 “데이터 학습만이 중요하다는 기존 기계학습의 통념을 깨고, 학습 전부터 적절한 조건을 만드는 뇌신경과학적 원리에 주목하는 새로운 관점을 제공하는 것”이라며 “발달 신경과학으로부터의 단서를 통해 인공신경망 학습의 중요한 문제를 해결함과 동시에, 인공신경망 모델을 통해 뇌의 학습 원리에 대한 통찰을 제공한다는 점에서 중요한 의미를 가진다”고 언급했다.
뇌인지과학과 천정환 석사과정이 제1 저자로, 같은 학과 이상완 교수가 공동 저자로 참여한 이번 연구는 12월 10일부터 15일까지 캐나다 벤쿠버에서 열리는 세계 최고 수준의 인공지능 학회인 제38회 신경정보처리학회(NeurIPS)에서 발표될 예정이다. (논문명: Pretraining with random noise for fast and robust learning without weight transport (가중치 수송 없는 빠르고 안정적인 신경망 학습을 위한 무작위 사전 훈련))
한편 이번 연구는 한국연구재단의 이공분야기초연구사업, 정보통신기획평가원 인재양성사업 및 KAIST 특이점교수 사업의 지원을 받아 수행됐다.
우리 대학 인공지능반도체대학원은 4월 8일(수) 오전 대전 오노마 호텔에서 '제5회 한국인공지능시스템포럼(KAISF)' 조찬 강연회를 성공적으로 개최하였다. 이번 강연회는 인공지능이 물리 세계와 직접 맞닿으며 산업 현장에 빠르게 스며드는 'Physical AI' 시대를 주제로, 총 63명의 산학 전문가가 참석한 가운데 활발한 논의가 이루어졌다. 초청 강연은 ㈜NC AI 이연수 대표이사와 김민재 CTO가 '물리 내재화 기반의 차세대 피지컬 AI와 전주기 통합 플랫폼 개발 현황'을 주제로 공동 진행하였다. 강연에서는 AI 기술의 발전으로 물리 법칙을 스스로 이해하는 피지컬 AI가 로봇 산업의 판도를 바꾸고 있는 현황을 소개하며, 다음 세 가지 핵심 내용을 중심으로 전개되었다. ▲질량·마찰·탄성 등 역학적 관계를 내재화한 WFM(월드 파운데이션 모델) 핵심 기술 및 로봇 파운데이션 모델(RFM) 기반 작업 지능 최적화 ▲Sim-to-Real 간극을 최소화
2026-04-10우리 몸의 단백질은 스위치처럼 작동한다. 약물이 단백질에 결합하면 결합 부위 구조가 변하고, 그 변화가 단백질 전체로 전달돼 기능이 켜지거나 꺼진다. 구글 딥마인드의 알파폴드3는 약물-단백질 결합 여부와 결합 부위의 3차원 구조를 예측하는 데 성공했지만, 약물이 결합한 뒤 단백질 내부에서 어떻게 신호를 전달하고 단백질 전체 구조를 바꿔서 실제로 단백질의 기능을 활성화하거나 억제하는지까지는 예측하지 못했다. 우리 대학 연구진이 약물이 ‘붙는지’가 아니라 ‘실제로 작동하는지’까지 예측하는 AI를 개발했다. 우리 대학은 바이오및뇌공학과 이관수 교수 연구팀이 대표적인 신약 표적인 G-단백질 결합 수용체(GPCR)에 대해, 후보 물질이 단순히 결합하는지를 넘어 실제로 단백질을 활성화하는지까지 예측하는 인공지능 모델 ‘GPCRact(지피씨알액트)’를 개발했다고 8일 밝혔다. GPCR(G-Protein Coupled Rece
2026-03-09우리 대학 기계공학과 윤국진 교수 연구팀이 세계적인 컴퓨터 비전 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)에서 주저자로 총 10편의 논문을 채택시키며, 연구팀의 압도적인 학술적 역량을 다시금 증명했다. CVPR은 인공지능과 시각 지능 분야에서 가장 큰 영향력을 가진 국제 학술 대회로, 1983년 시작된 이래 매년 엄격한 심사를 거쳐 우수 논문을 선정한다. 올해 CVPR 2026에는 전 세계에서 총 16,092편의 논문이 제출되었으며, 그중 4,090편이 채택되어 약 25.42%의 낮은 채택률을 기록하였다. 단일 연구실에서 주저자/교신저자로 10편의 논문이 동시에 채택되는 것은 국제적으로 매우 독보적인 성과로 평가받는다. 윤국진 교수 연구팀은 인간 수준의 시각 지능 구현을 목표로 폭넓은 연구를 수행하고 있다. 이번에 채택된 논문들은 이벤트 카메라 기반 기술, 자율주행 인
2026-03-06“슬럼(Slum, 빈곤지역)이 어디에 있는지조차 모르는 도시들” 한국 연구진이 위성사진만으로 슬럼 지역을 스스로 찾아내는 인공지능(AI)을 개발했다. 사람이 미리 위치를 표시해 주지 않아도 새로운 도시에서 자동으로 적응해 정확도를 높이는 기술로, 데이터가 부족한 개발도상국의 도시정책 수립과 공공 자원 배분 방식을 근본적으로 바꿀 수 있을 것으로 기대된다. 우리 대학은 전산학부 차미영 교수와 기술경영학부 김지희 교수 공동 연구팀이 전남대학교(총장 이근배) 지리학과 양재석 교수와 함께한 학제 간 융합 연구를 통해 위성사진 기반 범용 슬럼 탐지 AI 기술을 개발했다고 6일 밝혔다. 이번 연구는 세계 최고 권위의 인공지능 학술대회 ‘국제인공지능학회(AAAI) 2026’에서 ‘사회적 임팩트 AI(AI for Social Impact)’ 부문 최우수논문상(Best Paper Award)을 수상했다. 해당 부문에 제출된 6
2026-03-06만약 영화 다크나잇을 보면서 화면 속 조커를 바라보는 것이 아니라, 내가 조커가 되어 고담시를 직접 바라본다면 어떨까. 관객의 시선이 아닌 등장인물의 눈으로 세상을 경험하는 영상 기술이 현실이 되고 있다. 우리 대학 연구진이 일반 영상만으로도 사용자가 직접 보는 시점의 영상을 생성하는 새로운 인공지능 모델을 개발했다. 으리 대학은 김재철AI대학원 주재걸 석좌교수 연구팀이 관찰자 시점의 영상만을 활용해 영상 속 인물이 실제로 보고 있었을 장면을 정밀하게 생성하는 인공지능 모델 ‘에고엑스(EgoX)’를 개발했다고 23일 밝혔다. 최근 증강현실(AR), 가상현실(VR), AI 로봇 기술이 빠르게 발전하면서 ‘내가 직접 보는 장면’을 그대로 담은 1인칭 시점 영상(Egocentric video)의 중요성이 커지고 있다. 그러나 고품질의 1인칭 영상을 얻기 위해서는 사용자가 고가의 액션캠이나 스마트 글래스를 직접 착용해야 하는 한계가 있었다.
2026-02-23