
< (왼쪽부터) 린다 밀스 뉴욕대학교 총장과 이광형 총장 >
우리 대학이 뉴욕대학교(New York University, 총장 린다 밀스, Linda G. Mills)와 인공지능 분야 공동학위제(Joint Degree) 도입을 위한 업무협약을 9일 오후 체결했다.
이번 협약은 인공지능 분야의 역량 강화하고 글로벌 인재를 양성하는 것은 단순한 기술 교육을 넘어 미래 사회 전반에 큰 발전을 도모할 수 있는 필수 요소라는 양교의 공감대를 바탕으로 추진됐다.
양교는 그간 인공지능 및 이와 융합한 다양한 산업 분야의 공동연구 그룹을 운영해 왔으며, 이번 협약을 바탕으로 인공지능 관련 분야 대학원 과정의 공동학위제를 설계하기 위한 운영위원회를 올해 안에 설치할 예정이다.
우리 대학 관계자는 "인공지능 공동학위제가 시행되면 KAIST가 뉴욕대와 힘을 합쳐 ‘하나의 인공지능 학위’를 창조하는 사상 초유의 혁신적 실험이 될 것으로 기대한다"라고 전했다.
위원회는 양교 교수진을 동수로 포함해 구성하며, ▴교육과정 구조 및 교과 구성 ▴교과 이수 로드맵 ▴교수진 및 학생 규모 산출 ▴예산 규모 산출 ▴운영시설 규모 및 내역 산출 ▴인증에 관한 법률적 사항 등이 포함된 공동학위제의 총괄 전략 기획을 본격적으로 논의할 예정이다. 또한, 우리 대학과 뉴욕대의 인공지능 공동학위를 상징하는 신규 로고의 개발도 진행된다.
양교는 이번에 추진하는 공동학위제가 인공지능 분야 교육 및 연구 역량을 고도화하고 현재 세계적으로 부족한 관련 분야 인재를 공동 발굴하고 양성하는데 이바지하는 것은 물론 글로벌 교육 및 연구 협력의 모범적인 사례로 자리 잡을 것이라 기대하고 있다.
우수한 역량을 보유한 양교 교수진은 인공지능 관련 분야의 혁신적이고 창의적인 교육을 제공할 예정이다. 학생들은 양교 교수진이 추진하는 다양한 국제 공동 연구 사업에 참여해 최고 수준의 연구 경험을 쌓을 수 있는 지원을 받게 된다. 이를 통해, 미래 글로벌 사회를 이끌어갈 우수 인적자원을 꾸준히 양성하는 것이 양교가 추진하는 이번 공동학위제의 핵심이다.
우리 대학과 뉴욕대학교는 2022년 6월 공동캠퍼스 구축을 위한 협력 협정을 체결한 이후, 캠퍼스 공유, 공동연구, 공동학사 사업 등을 추진해 왔다. 이를 포함하여, 혁신적인 조인트 캠퍼스 모델을 발전시켜 나가고 있으며, 활발한 국제협력 모델을 구축하고 있다.
특히, 2023학년도 2학기부터 학사과정 학생들의 교환학생 제도를 시행하고 있다. 선발 경쟁을 통해 우리 대학에서 30명, 뉴욕대에서 11명의 학생이 선발돼 참여 중이다. 우리 대학 학생들의 경우 뉴욕대학교에서 6개의 부전공 프로그램 중 하나를 이수하게 되면, 졸업 시 해당 부전공의 이수가 명시된 학위를 받게 된다.
양교는 학사과정 교환학생 운영 성과를 바탕으로 석·박사 과정 학생을 위한 복수학위(Dual Degree) 제도 도입에도 합의해 현재 구체적인 절차가 진행되고 있다. 이 밖에도, 2023년부터 현재까지 인공지능과 융합한 15개 분야에서 미래 공동연구 기획 사업을 수행하고 있으며, 올해 4분기부터는 본격적으로 인공지능과 바이오 분야를 중심으로 하는 10개 분야 국제 공동연구를 착수할 계획이다.
린다 밀스 뉴욕대 총장은 "인공지능 기술은 기후 변화, 헬스케어, 교육 격차 등 여러 사회적 문제를 해결하는 데 큰 역할을 할 수 있다"라며, "양교가 양성할 글로벌 인재는 이러한 사회적 문제를 해결하는 데도 혁신적인 기여를 하게 될 것이다"고 말했다.
이광형 총장은 "글로벌 기술 패권 경쟁 시대에 인공지능 기술의 개발은 국가와 기업이 경쟁력을 확보하는 데 필수적인 요소":라며 "뉴욕대학교와의 장기적 협력을 통해 인공지능을 다양한 분야에 혁신적으로 적용하고 발전시킬 수 있는 세계적 수준의 고급 인재 양성에 앞장서겠다"라고 밝혔다.
서울 포시즌스 호텔에서 열린 이날 체결식에는 이광형 총장, 여현덕 G-School 원장 등 우리 대학 관계자와 린다 밀스 총장, 조경현 컴퓨터과학과 교수, 캐린 퍼베제 박사(Karin Pavese, Executive Director of NYU-KAIST Innovation Research Institute) 등 뉴욕대 관계자 및 국내 기업 주요 인사들이 참석했다.
우리 대학 인공지능반도체대학원은 4월 8일(수) 오전 대전 오노마 호텔에서 '제5회 한국인공지능시스템포럼(KAISF)' 조찬 강연회를 성공적으로 개최하였다. 이번 강연회는 인공지능이 물리 세계와 직접 맞닿으며 산업 현장에 빠르게 스며드는 'Physical AI' 시대를 주제로, 총 63명의 산학 전문가가 참석한 가운데 활발한 논의가 이루어졌다. 초청 강연은 ㈜NC AI 이연수 대표이사와 김민재 CTO가 '물리 내재화 기반의 차세대 피지컬 AI와 전주기 통합 플랫폼 개발 현황'을 주제로 공동 진행하였다. 강연에서는 AI 기술의 발전으로 물리 법칙을 스스로 이해하는 피지컬 AI가 로봇 산업의 판도를 바꾸고 있는 현황을 소개하며, 다음 세 가지 핵심 내용을 중심으로 전개되었다. ▲질량·마찰·탄성 등 역학적 관계를 내재화한 WFM(월드 파운데이션 모델) 핵심 기술 및 로봇 파운데이션 모델(RFM) 기반 작업 지능 최적화 ▲Sim-to-Real 간극을 최소화
2026-04-10우리 몸의 단백질은 스위치처럼 작동한다. 약물이 단백질에 결합하면 결합 부위 구조가 변하고, 그 변화가 단백질 전체로 전달돼 기능이 켜지거나 꺼진다. 구글 딥마인드의 알파폴드3는 약물-단백질 결합 여부와 결합 부위의 3차원 구조를 예측하는 데 성공했지만, 약물이 결합한 뒤 단백질 내부에서 어떻게 신호를 전달하고 단백질 전체 구조를 바꿔서 실제로 단백질의 기능을 활성화하거나 억제하는지까지는 예측하지 못했다. 우리 대학 연구진이 약물이 ‘붙는지’가 아니라 ‘실제로 작동하는지’까지 예측하는 AI를 개발했다. 우리 대학은 바이오및뇌공학과 이관수 교수 연구팀이 대표적인 신약 표적인 G-단백질 결합 수용체(GPCR)에 대해, 후보 물질이 단순히 결합하는지를 넘어 실제로 단백질을 활성화하는지까지 예측하는 인공지능 모델 ‘GPCRact(지피씨알액트)’를 개발했다고 8일 밝혔다. GPCR(G-Protein Coupled Rece
2026-03-09우리 대학 기계공학과 윤국진 교수 연구팀이 세계적인 컴퓨터 비전 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)에서 주저자로 총 10편의 논문을 채택시키며, 연구팀의 압도적인 학술적 역량을 다시금 증명했다. CVPR은 인공지능과 시각 지능 분야에서 가장 큰 영향력을 가진 국제 학술 대회로, 1983년 시작된 이래 매년 엄격한 심사를 거쳐 우수 논문을 선정한다. 올해 CVPR 2026에는 전 세계에서 총 16,092편의 논문이 제출되었으며, 그중 4,090편이 채택되어 약 25.42%의 낮은 채택률을 기록하였다. 단일 연구실에서 주저자/교신저자로 10편의 논문이 동시에 채택되는 것은 국제적으로 매우 독보적인 성과로 평가받는다. 윤국진 교수 연구팀은 인간 수준의 시각 지능 구현을 목표로 폭넓은 연구를 수행하고 있다. 이번에 채택된 논문들은 이벤트 카메라 기반 기술, 자율주행 인
2026-03-06“슬럼(Slum, 빈곤지역)이 어디에 있는지조차 모르는 도시들” 한국 연구진이 위성사진만으로 슬럼 지역을 스스로 찾아내는 인공지능(AI)을 개발했다. 사람이 미리 위치를 표시해 주지 않아도 새로운 도시에서 자동으로 적응해 정확도를 높이는 기술로, 데이터가 부족한 개발도상국의 도시정책 수립과 공공 자원 배분 방식을 근본적으로 바꿀 수 있을 것으로 기대된다. 우리 대학은 전산학부 차미영 교수와 기술경영학부 김지희 교수 공동 연구팀이 전남대학교(총장 이근배) 지리학과 양재석 교수와 함께한 학제 간 융합 연구를 통해 위성사진 기반 범용 슬럼 탐지 AI 기술을 개발했다고 6일 밝혔다. 이번 연구는 세계 최고 권위의 인공지능 학술대회 ‘국제인공지능학회(AAAI) 2026’에서 ‘사회적 임팩트 AI(AI for Social Impact)’ 부문 최우수논문상(Best Paper Award)을 수상했다. 해당 부문에 제출된 6
2026-03-06만약 영화 다크나잇을 보면서 화면 속 조커를 바라보는 것이 아니라, 내가 조커가 되어 고담시를 직접 바라본다면 어떨까. 관객의 시선이 아닌 등장인물의 눈으로 세상을 경험하는 영상 기술이 현실이 되고 있다. 우리 대학 연구진이 일반 영상만으로도 사용자가 직접 보는 시점의 영상을 생성하는 새로운 인공지능 모델을 개발했다. 으리 대학은 김재철AI대학원 주재걸 석좌교수 연구팀이 관찰자 시점의 영상만을 활용해 영상 속 인물이 실제로 보고 있었을 장면을 정밀하게 생성하는 인공지능 모델 ‘에고엑스(EgoX)’를 개발했다고 23일 밝혔다. 최근 증강현실(AR), 가상현실(VR), AI 로봇 기술이 빠르게 발전하면서 ‘내가 직접 보는 장면’을 그대로 담은 1인칭 시점 영상(Egocentric video)의 중요성이 커지고 있다. 그러나 고품질의 1인칭 영상을 얻기 위해서는 사용자가 고가의 액션캠이나 스마트 글래스를 직접 착용해야 하는 한계가 있었다.
2026-02-23