
< (왼쪽부터) 생명화학공학과 권문수 박사과정, 이준규 박사과정, 김현욱 교수 >
유전자, 단백질, 대사물질 등 복잡한 정보를 표현하는 바이오 경로 이미지는 중요한 연구 결과를 내포하고 있지만, 이미지 기반 정보 추출에 대해 그동안 충분한 연구가 이뤄지지 않았다. 이에 우리 연구진은 바이오 경로 정보를 자동으로 추출할 수 있는 인공지능 프레임워크를 개발했다.
우리 대학 생명화학공학과 김현욱 교수 연구팀이 바이오 경로 이미지에서 유전자와 대사물질 정보를 자동으로 추출하는 기계학습 기반의 ‘바이오 경로 정보 추출 프레임워크(이하 EBPI, Extraction of Biological Pathway Information)’를 개발했다고 28일 밝혔다.
연구팀이 개발한 EBPI는 문헌에서 추출한 이미지 속의 화살표와 텍스트를 인식하고, 이를 기반으로 바이오 경로를 편집 가능한 표의 형태로 재구성한다. 객체 감지 모델 등의 기계학습을 사용해 경로 이미지 내 화살표의 위치와 방향을 감지하고, 이미지 속 텍스트를 유전자, 단백질, 대사물질로 분류한다. 그 후 추출된 정보를 통합해 경로 정보를 표 형식으로 제공한다.
연구팀은 74,853편의 논문에서 추출한 바이오 경로 이미지와 기존 수작업으로 작성된 경로 지도를 비교하며 EBPI의 성능을 검증했다. 그 결과, 높은 정확도로 바이오 경로 정보가 자동으로 추출됐음을 확인했다.
EBPI를 사용해 대표적인 바이오 경로 데이터베이스에 포함되지 않은 생화학 반응 정보를 대량의 문헌 내 바이오 경로 이미지로부터 추출하는 데에도 성공했다.
다양한 산업적 가치를 지닌 대사물질들의 생합성 관련 문헌을 EBPI로 분석한 결과, 문헌에서는 보고가 됐지만, 기존 데이터베이스에서는 누락된 생화학 반응들이 확인된 것이다. 화학산업에서 다양한 응용분야를 갖는 1,4-부탄디올, 2-메틸부티르산, 하이드록시티로솔, 레불린산 및 발레로락탐의 생합성 경로를 예시로 이러한 발견을 제시했다.

< 그림 1. 바이오 경로 이미지에서 생화학 반응 정보를 자동으로 추출하는 EBPI의 모식도 >
연구를 총괄한 김현욱 교수는 “이번 연구에서 개발된 EBPI는 대규모 문헌 데이터 분석에 있어 중요한 도구가 될 것이며 생명공학, 대사공학 및 합성생물학 분야에서 바이오 경로 이미지를 AI로 분석하는 최초의 사례로, 관련 연구의 실험 디자인 및 분석 시 유용하게 활용될 수 있을 것”이라고 밝혔다.

< 그림 2. 감마 하이드록시뷰티르산 대사경로 이미지에 EBPI를 적용하여, 해당 생화학 반응 정보를 추출한 예시 >
생명화학공학과 권문수 박사과정생과 이준규 박사과정생이 공동 제1 저자인 이번 연구는 대사공학 및 합성생물학 분야의 대표적 국제학술지인 대사공학(Metabolic Engineering, JCR 분야 상위 10% 이내)에 11월호에 게재됐다.
※ 논문명 : A machine learning framework for extracting information from biological pathway images in the literature
※ 저자 정보 : 권문수(한국과학기술원, 공동 제1 저자), 이준규(한국과학기술원, 공동 제1 저자), 김현욱(한국과학기술원, 교신저자) 포함 총 3명
한편 이번 연구는 과학기술정보통신부 한국연구재단 및 농촌진흥청의 농업미생물사업단의 지원을 받아 수행됐다.
우리 대학 기계공학과 윤국진 교수 연구팀이 세계적인 컴퓨터 비전 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)에서 주저자로 총 10편의 논문을 채택시키며, 연구팀의 압도적인 학술적 역량을 다시금 증명했다. CVPR은 인공지능과 시각 지능 분야에서 가장 큰 영향력을 가진 국제 학술 대회로, 1983년 시작된 이래 매년 엄격한 심사를 거쳐 우수 논문을 선정한다. 올해 CVPR 2026에는 전 세계에서 총 16,092편의 논문이 제출되었으며, 그중 4,090편이 채택되어 약 25.42%의 낮은 채택률을 기록하였다. 단일 연구실에서 주저자/교신저자로 10편의 논문이 동시에 채택되는 것은 국제적으로 매우 독보적인 성과로 평가받는다. 윤국진 교수 연구팀은 인간 수준의 시각 지능 구현을 목표로 폭넓은 연구를 수행하고 있다. 이번에 채택된 논문들은 이벤트 카메라 기반 기술, 자율주행 인
2026-03-06“슬럼(Slum, 빈곤지역)이 어디에 있는지조차 모르는 도시들” 한국 연구진이 위성사진만으로 슬럼 지역을 스스로 찾아내는 인공지능(AI)을 개발했다. 사람이 미리 위치를 표시해 주지 않아도 새로운 도시에서 자동으로 적응해 정확도를 높이는 기술로, 데이터가 부족한 개발도상국의 도시정책 수립과 공공 자원 배분 방식을 근본적으로 바꿀 수 있을 것으로 기대된다. 우리 대학은 전산학부 차미영 교수와 기술경영학부 김지희 교수 공동 연구팀이 전남대학교(총장 이근배) 지리학과 양재석 교수와 함께한 학제 간 융합 연구를 통해 위성사진 기반 범용 슬럼 탐지 AI 기술을 개발했다고 6일 밝혔다. 이번 연구는 세계 최고 권위의 인공지능 학술대회 ‘국제인공지능학회(AAAI) 2026’에서 ‘사회적 임팩트 AI(AI for Social Impact)’ 부문 최우수논문상(Best Paper Award)을 수상했다. 해당 부문에 제출된 6
2026-03-06만약 영화 다크나잇을 보면서 화면 속 조커를 바라보는 것이 아니라, 내가 조커가 되어 고담시를 직접 바라본다면 어떨까. 관객의 시선이 아닌 등장인물의 눈으로 세상을 경험하는 영상 기술이 현실이 되고 있다. 우리 대학 연구진이 일반 영상만으로도 사용자가 직접 보는 시점의 영상을 생성하는 새로운 인공지능 모델을 개발했다. 으리 대학은 김재철AI대학원 주재걸 석좌교수 연구팀이 관찰자 시점의 영상만을 활용해 영상 속 인물이 실제로 보고 있었을 장면을 정밀하게 생성하는 인공지능 모델 ‘에고엑스(EgoX)’를 개발했다고 23일 밝혔다. 최근 증강현실(AR), 가상현실(VR), AI 로봇 기술이 빠르게 발전하면서 ‘내가 직접 보는 장면’을 그대로 담은 1인칭 시점 영상(Egocentric video)의 중요성이 커지고 있다. 그러나 고품질의 1인칭 영상을 얻기 위해서는 사용자가 고가의 액션캠이나 스마트 글래스를 직접 착용해야 하는 한계가 있었다.
2026-02-23우리 대학 김재철AI대학원 최재식 교수 연구팀이 ㈜카카오뱅크(대표 윤호영)와 공동으로 인공지능(AI) 모델의 판단 근거를 실시간으로 설명할 수 있는 가속화 설명 기술을 개발했다고 밝혔다. 이번 연구 성과는 AI 모델의 예측 결과에 대한 기존 설명 알고리즘 대비 평균 8.5배, 최대 11배 이상 빠른 처리 속도를 달성해, 금융 서비스 등 실시간 의사결정이 필요한 분야에서 설명가능 인공지능(Explainable Artificial Intelligence, 이하 XAI) 기술의 실용화 가능성을 크게 높였다. 금융 분야에서는 AI 시스템이 내린 결정에 대한 명확한 설명이 필수적이다. 특히 대출 심사나 이상거래 탐지와 같이 고객의 권익과 직결된 서비스에서는 AI 모델의 판단 근거를 투명하게 제시해야 하는 규제 요구가 점차 강화되고 있다. 하지만 기존의 설명가능 인공지능(XAI) 기술은 정확한 설명을 생성하기 위해 수백에서 수천 개의 기준점(Baseline)을 반복 계산해야 하므로 막
2025-12-11우리 대학은 11월 14일, 컴퓨터 과학 분야 세계적 권위의 학술대회인 ‘정보 및 지식관리 학회(The 34th International Conference on Information and Knowledge Management, CIKM 2025)’에서‘인간 중심 AI: 설명가능성과 신뢰성에서 실행 가능한 윤리까지(Human-Centric AI: From Explainability and Trustworthiness to Actionable Ethics)’를 주제로 국제 워크숍(워크샵 조직위원장: KAIST 김재철AI대학원 최재식 교수)을 개최할 예정이다. 이번 행사는 KAIST 김재철AI대학원이 주도하고 서울대, 서강대, 성균관대, 한국전자통신연구원(ETRI), 독일 TU Berlin 등 국내외 유수 기관이 공동으로 참여하는 자리다. AI 기술의 잠재적 위험을 줄이고 책임 있는 활용을 위한 ‘인간 중심 AI&rsquo
2025-11-07