
< 유회준 교수 >
우리 대학 전기및전자공학부 유회준 석좌교수가 반도체 올림픽이라 불리는 국제고체회로학회(ISSCC)에서 아시아 교수로서는 최초로 기조연설자로 선정돼 개막 연설을 진행했다.
유 교수는 2월 18일(현지시간) 미국 샌프란시스코 메리어트 호텔에서 열린 제62회 ISSCC에서 세계 각국의 반도체 기술자 3천여 명을 대상으로 ‘지능을 실리콘 상에(Intelligence on Silicon), 부제 : 심층 신경망 가속기부터 뇌 모방 인공지능 시스템 온 칩까지(From Deep-Neural-Network Accelerators to Brain Mimicking AI-SoCs)’ 라는 주제로 인공지능 칩의 현황과 미래에 대한 기조연설을 했다.
유 교수는 실생활에서 인공지능 적용을 가능하게 하는 인공지능 칩 분야에서 세계의 기술을 주도하고 있다는 공을 인정받아 이번 기조연설자로 선정됐다.
유 교수는 학회 개최에 앞서 2월 17일에 열린 전기전자엔지니어협회(IEEE) 국제고체회로학회 운영회의에서 ISSCC의 자매 학회인 아시아고체회로학회(ASSCC)의 차기 학회장으로 선출되기도 했다. 유 교수 연구실의 최성필, 이진묵 박사과정은 2개의 ISSCC 최우수 시연상을 수상하기도 했다.
유 교수는 기조연설을 통해 세계적으로 경쟁이 치열한 인공지능 반도체 칩 연구 중 최첨단을 달리는 우리나라의 새 기술들을 소개하고 세계 기술이 나아가야 할 미래 방향을 제시했다.
먼저 우리 대학에서 연이어 발표하고 있는 가변형 인공지능 컴퓨팅(Reconfigurable AI Computing)을 소개했다. 이 기술은 칩의 구조를 실시간으로 변화하고 연산에 사용되는 데이터 범위를 바꿀 수 있어 한 개의 칩으로 다양한 인공지능 알고리즘을 가속할 수 있다. 이를 통해 여러 상황에서 저전력의 고속처리가 가능하다.
둘째로 그동안 불가능했던 모바일용 인공지능 칩에서의 학습 (Training)이 가능함을 보였다. 기존 인식(Inference)용 가속기는 원격 서버에서 학습을 진행한 후 완료된 모델을 내려받아 칩에서 인식만 수행해 진정한 인공지능을 구현할 수는 없었다.
유 교수는 모바일용 칩에서도 개인정보보호 및 보안 등의 이유로 기기에서의 학습이 필수적이라 예측하며 저전력 및 고속처리가 가능한 학습용 칩을 공개했다. 이를 통해 시시각각으로 변하는 상황을 스스로 감지하고 학습해 최적의 행동을 할 수 있는 로봇이나 자동차 등의 예시를 제시했다.
유회준 교수는 학습용 칩을 통해 로봇 또는 자동차가 마치 반려동물처럼 사용자의 감정을 알아차리고 이에 맞춰 행동하는 ‘휴머니스틱 인텔리전스(Humanistic Intelligence)’라는 새 개념을 주창했고, 이는 미래 인공지능 응용에 핵심적일 요소가 될 것이라 주장했다.
인공지능 칩의 미래는 크게 2가지 방향으로 예측했다. 첫째는 미시적 뇌 신경의 동작을 모방하는 뉴로모픽(Neuromorphic) 칩이며 둘째는 거시적인 뇌인지 기능을 모방한 칩이다.
뉴로모픽 칩은 RRAM, PRAM 및 MRAM과 같은 비휘발성 메모리(Nonvolatile Memory)를 시냅스 및 뉴런으로 구현하는 방식이 주류를 이룰 것으로 주장했다.
거시적 인지 기능 모방 칩은 뇌의 기능을 모방한 연산 블록들이 커넥톰(Connectome)과 같은 형태의 회로로 연결되는 방식으로 발전하리라 예측했다. 특히 시각 인지 모델을 활용한 인공지능 칩 개발 사례들을 제시하며 이러한 접근이 저전력화 및 고속화에 유리함을 주장했다.
유회준 교수는 “뇌의 해부학적 및 기능적 연구의 진보에서 힌트를 얻어 인공지능 알고리즘 및 인공지능 칩의 발전도 계속될 것이다”고 말했다.
한편 기조연설자로 페이스북의 인공지능 총괄과 뉴욕 대학의 교수를 역임하며 인공지능의 개척자로 불리는 얀 러쿤(Yann LeCun)교수도 이번에 개막연설자로 초청돼 인공지능의 알고리즘 발전에 대해 발표했다. 알고리즘 분야에서는 해외 기업들이 강세를 보이지만 인공지능 칩에 대해서는 반도체 기술이 앞선 대한민국의 유회준 교수가 세계 기술발전을 주도하고 있다는 의견이 주를 이루었다.
유 교수는 창립 기념일인 2월 18일에 인공지능 칩 연구 성과에 대한 우수성을 인정받아 KAIST 학술대상을 수상하기도 했다.
우리 대학 인공지능반도체대학원은 4월 8일(수) 오전 대전 오노마 호텔에서 '제5회 한국인공지능시스템포럼(KAISF)' 조찬 강연회를 성공적으로 개최하였다. 이번 강연회는 인공지능이 물리 세계와 직접 맞닿으며 산업 현장에 빠르게 스며드는 'Physical AI' 시대를 주제로, 총 63명의 산학 전문가가 참석한 가운데 활발한 논의가 이루어졌다. 초청 강연은 ㈜NC AI 이연수 대표이사와 김민재 CTO가 '물리 내재화 기반의 차세대 피지컬 AI와 전주기 통합 플랫폼 개발 현황'을 주제로 공동 진행하였다. 강연에서는 AI 기술의 발전으로 물리 법칙을 스스로 이해하는 피지컬 AI가 로봇 산업의 판도를 바꾸고 있는 현황을 소개하며, 다음 세 가지 핵심 내용을 중심으로 전개되었다. ▲질량·마찰·탄성 등 역학적 관계를 내재화한 WFM(월드 파운데이션 모델) 핵심 기술 및 로봇 파운데이션 모델(RFM) 기반 작업 지능 최적화 ▲Sim-to-Real 간극을 최소화
2026-04-10우리 몸의 단백질은 스위치처럼 작동한다. 약물이 단백질에 결합하면 결합 부위 구조가 변하고, 그 변화가 단백질 전체로 전달돼 기능이 켜지거나 꺼진다. 구글 딥마인드의 알파폴드3는 약물-단백질 결합 여부와 결합 부위의 3차원 구조를 예측하는 데 성공했지만, 약물이 결합한 뒤 단백질 내부에서 어떻게 신호를 전달하고 단백질 전체 구조를 바꿔서 실제로 단백질의 기능을 활성화하거나 억제하는지까지는 예측하지 못했다. 우리 대학 연구진이 약물이 ‘붙는지’가 아니라 ‘실제로 작동하는지’까지 예측하는 AI를 개발했다. 우리 대학은 바이오및뇌공학과 이관수 교수 연구팀이 대표적인 신약 표적인 G-단백질 결합 수용체(GPCR)에 대해, 후보 물질이 단순히 결합하는지를 넘어 실제로 단백질을 활성화하는지까지 예측하는 인공지능 모델 ‘GPCRact(지피씨알액트)’를 개발했다고 8일 밝혔다. GPCR(G-Protein Coupled Rece
2026-03-09우리 대학 기계공학과 윤국진 교수 연구팀이 세계적인 컴퓨터 비전 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)에서 주저자로 총 10편의 논문을 채택시키며, 연구팀의 압도적인 학술적 역량을 다시금 증명했다. CVPR은 인공지능과 시각 지능 분야에서 가장 큰 영향력을 가진 국제 학술 대회로, 1983년 시작된 이래 매년 엄격한 심사를 거쳐 우수 논문을 선정한다. 올해 CVPR 2026에는 전 세계에서 총 16,092편의 논문이 제출되었으며, 그중 4,090편이 채택되어 약 25.42%의 낮은 채택률을 기록하였다. 단일 연구실에서 주저자/교신저자로 10편의 논문이 동시에 채택되는 것은 국제적으로 매우 독보적인 성과로 평가받는다. 윤국진 교수 연구팀은 인간 수준의 시각 지능 구현을 목표로 폭넓은 연구를 수행하고 있다. 이번에 채택된 논문들은 이벤트 카메라 기반 기술, 자율주행 인
2026-03-06“슬럼(Slum, 빈곤지역)이 어디에 있는지조차 모르는 도시들” 한국 연구진이 위성사진만으로 슬럼 지역을 스스로 찾아내는 인공지능(AI)을 개발했다. 사람이 미리 위치를 표시해 주지 않아도 새로운 도시에서 자동으로 적응해 정확도를 높이는 기술로, 데이터가 부족한 개발도상국의 도시정책 수립과 공공 자원 배분 방식을 근본적으로 바꿀 수 있을 것으로 기대된다. 우리 대학은 전산학부 차미영 교수와 기술경영학부 김지희 교수 공동 연구팀이 전남대학교(총장 이근배) 지리학과 양재석 교수와 함께한 학제 간 융합 연구를 통해 위성사진 기반 범용 슬럼 탐지 AI 기술을 개발했다고 6일 밝혔다. 이번 연구는 세계 최고 권위의 인공지능 학술대회 ‘국제인공지능학회(AAAI) 2026’에서 ‘사회적 임팩트 AI(AI for Social Impact)’ 부문 최우수논문상(Best Paper Award)을 수상했다. 해당 부문에 제출된 6
2026-03-06만약 영화 다크나잇을 보면서 화면 속 조커를 바라보는 것이 아니라, 내가 조커가 되어 고담시를 직접 바라본다면 어떨까. 관객의 시선이 아닌 등장인물의 눈으로 세상을 경험하는 영상 기술이 현실이 되고 있다. 우리 대학 연구진이 일반 영상만으로도 사용자가 직접 보는 시점의 영상을 생성하는 새로운 인공지능 모델을 개발했다. 으리 대학은 김재철AI대학원 주재걸 석좌교수 연구팀이 관찰자 시점의 영상만을 활용해 영상 속 인물이 실제로 보고 있었을 장면을 정밀하게 생성하는 인공지능 모델 ‘에고엑스(EgoX)’를 개발했다고 23일 밝혔다. 최근 증강현실(AR), 가상현실(VR), AI 로봇 기술이 빠르게 발전하면서 ‘내가 직접 보는 장면’을 그대로 담은 1인칭 시점 영상(Egocentric video)의 중요성이 커지고 있다. 그러나 고품질의 1인칭 영상을 얻기 위해서는 사용자가 고가의 액션캠이나 스마트 글래스를 직접 착용해야 하는 한계가 있었다.
2026-02-23