본문 바로가기
대메뉴 바로가기
KAIST
연구뉴스
유틸열기
홈페이지 통합검색
-
검색
메뉴 열기
%EC%9D%B4%EB%AF%B8%EC%A7%80
최신순
조회순
‘뻔하지 않은 창의적인 의자’그리는 AI 기술 개발
최근 텍스트 기반 이미지 생성 모델은 자연어로 제공된 설명만으로도 고해상도·고품질 이미지를 자동 생성할 수 있다. 하지만, 대표적인 예인 스테이블 디퓨전(Stable Diffusion) 모델에서 ‘창의적인’이라는 텍스트를 입력했을 경우, 창의적인 이미지 생성은 아직은 제한적인 수준이다. KAIST 연구진이 스테이블 디퓨전(Stable Diffusion) 등 텍스트 기반 이미지 생성 모델에 별도 학습 없이 창의성을 강화할 수 있는 기술을 개발해, 예컨대 뻔하지 않은 창의적인 의자 디자인도 인공지능이 스스로 그려낼 수 있게 됐다. 우리 대학 김재철AI대학원 최재식 교수 연구팀이 네이버(NAVER) AI Lab과 공동 연구를 통해, 추가적 학습 없이 인공지능(AI) 생성 모델의 창의적 생성을 강화하는 기술을 개발했다. 최 교수 연구팀은 텍스트 기반 이미지 생성 모델의 내부 특징 맵을 증폭해 창의적 생성을 강화하는 기술을 개발했다. 또한, 모델 내부의 얕은 블록들이 창의적 생성에 중요한 역할을 한다는 것을 발견하고, 특징 맵을 주파수 영역으로 변환 후, 높은 주파수 영역에 해당하는 부분의 값을 증폭하면 노이즈나 작게 조각난 색깔 패턴의 형태를 유발하는 것을 확인했다. 이에 따라, 연구팀은 얕은 블록의 낮은 주파수 영역을 증폭함으로써 효과적으로 창의적 생성을 강화할 수 있음을 보였다. 연구팀은 창의성을 정의하는 두 가지 핵심 요소인 독창성과 유용성을 모두 고려해, 생성 모델 내부의 각 블록 별로 최적의 증폭 값을 자동으로 선택하는 알고리즘을 제시했다. 개발된 알고리즘을 통해 사전 학습된 스테이블 디퓨전 모델의 내부 특징 맵을 적절히 증폭해 추가적인 분류 데이터나 학습 없이 창의적 생성을 강화할 수 있었다. 연구팀은 개발된 알고리즘을 사용하면 기존 모델 대비 더욱 참신하면서도 유용성이 크게 저하되지 않은 이미지를 생성할 수 있음을 다양한 측정치를 활용해 정량적으로 입증했다. 특히, 스테이블 디퓨전 XL(SDXL) 모델의 이미지 생성 속도를 대폭 향상하기 위해 개발된 SDXL-Turbo 모델에서 발생하는 모드 붕괴 문제를 완화함으로써 이미지 다양성이 증가한 것을 확인했다. 나아가, 사용자 연구를 통해 사람이 직접 평가했을 때도 기존 방법에 비해 유용성 대비 참신성이 크게 향상됨을 입증했다. 공동 제1 저자인 KAIST 한지연, 권다희 박사과정은 "생성 모델을 새로 학습하거나 미세조정 학습하지 않고 생성 모델의 창의적인 생성을 강화하는 최초의 방법론ˮ이라며 "학습된 인공지능 생성 모델 내부에 잠재된 창의성을 특징 맵 조작을 통해 강화할 수 있음을 보였다ˮ 라고 말했다. 이어 “이번 연구는 기존 학습된 모델에서도 텍스트만으로 창의적 이미지를 손쉽게 생성할 수 있게 됐으며, 이를 통해 창의적인 상품 디자인 등 다양한 분야에서 새로운 영감을 제공하고, 인공지능 모델이 창의적 생태계에서 실질적으로 유용하게 활용될 수 있도록 기여할 것으로 기대된다”라고 밝혔다. KAIST 김재철AI대학원 한지연 박사과정과 권다희 박사과정이 공동 제1 저자로 참여한 이번 연구는 국제 학술지 `국제 컴퓨터 비전 및 패턴인식 학술대회 (IEEE Conference on Computer Vision and Pattern Recognition, CVPR)’에서 6월 15일 발표됐다. ※논문명 : Enhancing Creative Generation on Stable Diffusion-based Models ※DOI: https://doi.org/10.48550/arXiv.2503.23538 한편 이번 연구는 KAIST-네이버 초창의적 AI 연구센터, 과학기술정보통신부의 재원으로 정보통신기획평가원의 지원을 받은 혁신성장동력프로젝트 설명가능인공지능, AI 연구거점 프로젝트, 점차 강화되고 있는 윤리 정책에 발맞춰 유연하게 진화하는 인공지능 기술 개발 연구 및 KAIST 인공지능 대학원 프로그램과제의 지원을 받았고 방위사업청과 국방과학연구소의 지원으로 KAIST 미래 국방 인공지능 특화연구센터에서 수행됐다.
2025.06.19
조회수 613
바이오 경로 이미지 분석하는 AI 최초 개발
유전자, 단백질, 대사물질 등 복잡한 정보를 표현하는 바이오 경로 이미지는 중요한 연구 결과를 내포하고 있지만, 이미지 기반 정보 추출에 대해 그동안 충분한 연구가 이뤄지지 않았다. 이에 우리 연구진은 바이오 경로 정보를 자동으로 추출할 수 있는 인공지능 프레임워크를 개발했다. 우리 대학 생명화학공학과 김현욱 교수 연구팀이 바이오 경로 이미지에서 유전자와 대사물질 정보를 자동으로 추출하는 기계학습 기반의 ‘바이오 경로 정보 추출 프레임워크(이하 EBPI, Extraction of Biological Pathway Information)’를 개발했다고 28일 밝혔다. 연구팀이 개발한 EBPI는 문헌에서 추출한 이미지 속의 화살표와 텍스트를 인식하고, 이를 기반으로 바이오 경로를 편집 가능한 표의 형태로 재구성한다. 객체 감지 모델 등의 기계학습을 사용해 경로 이미지 내 화살표의 위치와 방향을 감지하고, 이미지 속 텍스트를 유전자, 단백질, 대사물질로 분류한다. 그 후 추출된 정보를 통합해 경로 정보를 표 형식으로 제공한다. 연구팀은 74,853편의 논문에서 추출한 바이오 경로 이미지와 기존 수작업으로 작성된 경로 지도를 비교하며 EBPI의 성능을 검증했다. 그 결과, 높은 정확도로 바이오 경로 정보가 자동으로 추출됐음을 확인했다. EBPI를 사용해 대표적인 바이오 경로 데이터베이스에 포함되지 않은 생화학 반응 정보를 대량의 문헌 내 바이오 경로 이미지로부터 추출하는 데에도 성공했다. 다양한 산업적 가치를 지닌 대사물질들의 생합성 관련 문헌을 EBPI로 분석한 결과, 문헌에서는 보고가 됐지만, 기존 데이터베이스에서는 누락된 생화학 반응들이 확인된 것이다. 화학산업에서 다양한 응용분야를 갖는 1,4-부탄디올, 2-메틸부티르산, 하이드록시티로솔, 레불린산 및 발레로락탐의 생합성 경로를 예시로 이러한 발견을 제시했다. 연구를 총괄한 김현욱 교수는 “이번 연구에서 개발된 EBPI는 대규모 문헌 데이터 분석에 있어 중요한 도구가 될 것이며 생명공학, 대사공학 및 합성생물학 분야에서 바이오 경로 이미지를 AI로 분석하는 최초의 사례로, 관련 연구의 실험 디자인 및 분석 시 유용하게 활용될 수 있을 것”이라고 밝혔다. 생명화학공학과 권문수 박사과정생과 이준규 박사과정생이 공동 제1 저자인 이번 연구는 대사공학 및 합성생물학 분야의 대표적 국제학술지인 대사공학(Metabolic Engineering, JCR 분야 상위 10% 이내)에 11월호에 게재됐다. ※ 논문명 : A machine learning framework for extracting information from biological pathway images in the literature ※ 저자 정보 : 권문수(한국과학기술원, 공동 제1 저자), 이준규(한국과학기술원, 공동 제1 저자), 김현욱(한국과학기술원, 교신저자) 포함 총 3명 한편 이번 연구는 과학기술정보통신부 한국연구재단 및 농촌진흥청의 농업미생물사업단의 지원을 받아 수행됐다.
2024.11.28
조회수 5071
초박막으로 초고해상도 이미지 즐긴다
한미 공동 연구진이 기존 센서 대비 전력 효율이 높고 크기가 작은 고성능 이미지 센서를 구현할 수 있는 차세대 고해상도 이미지 센서 기술을 개발했다. 특히 세계 시장에서 소니(Sony)社가 주도하고 있는 초고해상도 단파적외선(SWIR) 이미지 센서 기술에 대한 원천 기술을 확보해 향후 시장 진입 가능성이 크다. 우리 대학 전기및전자공학부 김상현 교수팀이 인하대, 미국 예일대와 공동연구를 통해 개발한 초박형 광대역 광다이오드(PD)가 고성능 이미지 센서 기술에 새로운 전환점을 마련했다고 20일 밝혔다. 이번 연구는 광다이오드의 기존 기술에서 나타나는 흡수층 두께와 양자 효율 간의 상충 관계를 획기적으로 개선한 것으로, 특히 1마이크로미터(μm) 이하의 얇은 흡수층에서도 70% 이상의 높은 양자 효율을 달성했다. 이 성과는 기존 기술의 흡수층 두께를 약 70% 줄이는 결과를 가져왔다. 흡수층이 얇아지면 화소 공정이 간단해져 높은 해상도 달성이 가능하고 캐리어 확산이 원활해져 광캐리어 획득에 유리한 장점이 있다. 더불어 원가도 절감이 가능하다. 그러나 일반적으로 흡수층이 얇아지면 장파장의 빛의 흡수는 줄어들게 되는 본질적인 문제가 존재한다. 연구진은 도파 모드 공명(GMR)* 구조를 도입해 400나노미터(nm)에서 1,700 나노미터(nm)에 이르는 넓은 스펙트럼 범위에서 고효율의 광 흡수를 유지할 수 있음을 입증했다. 이 파장 대역은 가시광선 영역뿐만 아니라 단파 적외선(SWIR) 영역까지 포함해 다양한 산업적 응용에서 중요한 역할을 할 것으로 기대된다. *도파 모드 공명: 전자기학에서 사용하는 개념으로 특정 파동(빛)이 특정 파장에서 공명 (강한 전기/자기장 형성)하는 현상. 해당 조건에서 에너지가 최대화되기 때문에 안테나나 레이더 효율을 높이는데 활용된 바 있음. 단파 적외선 영역에서의 성능 향상은 점점 고해상도화되는 차세대 이미지 센서의 개발에도 중대한 기여를 할 것으로 예상된다. 특히, 도파 모드 공명 구조는 상보적 금속산화물 반도체(CMOS) 기반의 신호 판독 회로(ROIC)와의 하이브리드 집적, 모놀리식 3D 집적을 통해 해상도 및 기타 성능을 더욱 높일 가능성을 가진다. 연구팀은 저전력 소자 및 초고해상도 이미징 기술에 대한 국제 경쟁력을 높여 디지털카메라, 보안 시스템, 의료 및 산업용 이미지 센서 응용 분야부터 자동차 자율 주행, 항공 및 위성 관측 등 미래형 초고해상도 이미지 센서의 실현 가능성을 크게 높였다. 연구 책임자인 김상현 교수는 "이번 연구를 통해 초박막 흡수층에서도 기존 기술보다 훨씬 높은 성능을 구현할 수 있음을 입증했다”며, "특히 세계 시장에서 소니(Sony)社가 주도하고 있는 초고해상도 단파적외선(SWIR) 이미지 센서 기술에 대한 원천 기술을 확보해 향후 시장 진입 가능성을 열었다”고 설명했다. 이번 연구 결과는 인하대학교 금대명 교수(前 KAIST 박사후 연구원), 임진하 박사(現 예일대학교 박사후 연구원)이 공동 제1 저자로 참여해 국제 저명 학술지인 ‘빛, 과학과 응용(Light: Science & Applications, JCR 2.9%, IF=20.6)’에 11월 15일자 발표됐다. (논문제목: Highly-efficient (>70%) and Wide-spectral (400 nm -1700 nm) sub-micron-thick InGaAs photodiodes for future high resolution image sensors) 한편, 해당 연구는 한국연구재단의 지원을 받아 진행됐다.
2024.11.20
조회수 5628
딥러닝 적대적 공격을 막는 방어 프레임 개발
우리 대학 전기및전자공학부 노용만 교수 연구팀이 물체를 검출하는 딥러닝 신경망에 대한 적대적 공격을 방어하는 알고리즘을 개발했다고 15일 밝혔다. 최근 몇 년간 인공지능 딥러닝 신경망 기술이 나날이 발전하고 실세계에 활용되면서, 딥러닝 신경망 기술은 자율주행 및 물체검출 등 다양한 분야에서 떠오르는 핵심기술로 주목받고 있다. 하지만 현재의 딥러닝 기반 검출 네트워크는, 특정한 적대적 패턴을 입력 이미지에 악의적으로 주입하여 잘못된 예측 결과를 초래하는 적대적 공격에 대해 심각하게 취약하다. 적대적 패턴이란 공격자가 검출이 되지 않기 위해 인위적으로 만든 패턴이다. 이 패턴이 포함된 물체는 검출이 되지 않게 하는 것으로 적대적 패턴 공격이라 한다. 이러한 취약성은 인공지능으로 대표되는 딥러닝 기반의 모델을 국방이나 의료 및 자율주행 등 국민의 생명과 재산을 직접 다루는 분야에 적용할 때 크게 문제가 된다. 구체적인 예로 국방·보안을 위한 감시 정찰 분야에서 적군이 적대적 패턴으로 위장하여 침입하면 검출을 못하는 경우가 발생하여 국방 및 보안에 매우 큰 위험을 초래할 수 있다. 기존의 많은 연구가 적대적 패턴 공격을 막기 위해 노력했으나 추가로 복잡한 모듈이 필요하거나 네트워크를 처음부터 다시 학습해야 했기 때문에, 기존 연구는 실시간으로 동작하는 물체검출 알고리즘에 현실적으로 적용하기가 쉽지 않았다. 노 교수 연구팀은 물리적인 환경에서 적대적 패턴 공격의 원리를 반대로 이용해 적대적 공격을 막아내는 방어 프레임을 고안했다. 이러한 방어 프레임은 부가적인 복잡한 모듈이나 네트워크의 재학습이 필요하지 않으므로 보다 실용적이고 강인한 물체검출 네트워크를 구축하는데 폭넓게 응용 및 적용될 수 있을 것으로 기대된다. 공동 제1 저자인 전기및전자공학부 유영준 박사과정 학생과 이홍주 박사과정 학생 등이 함께 수행한 이번 연구는 영상처리 분야 최고의 국제 학술지인 `IEEE Transactions on Image Processing'에 11월 1일 자로 온라인 게재됐다. (논문명 : Defending Person Detection Against Adversarial Patch Attack by using Universal Defensive Frame). 연구팀은 문제 해결을 위해 적대적 공격의 원리를 역으로 이용해, 학습된 네트워크에 접근하지 않으면서도 입력단에서 방어할 수 있는 방어 프레임 기술을 고안했다. 연구팀의 방어 기술은 적대적 공격과 정반대로 물체검출 시 딥러닝 모델이 옳은 예측 결과를 내리도록 방어 프레임을 만드는 것이다. 이러한 방어 프레임은 마치 창과 방패의 싸움처럼 적대적 패턴과 함께 경쟁적으로 학습되며, 해당 과정을 반복해 최종적으로 모든 적대적 패턴 공격에 대해 높은 방어성능을 지니도록 최적화된다. 연구팀은 입력 이미지 외부에 덧붙이는 방어 프레임을 변화시킴으로써 손쉽게 방어성능을 조절할 수 있음을 확인했고, 개발된 방어 프레임은 인리아(INRIA) 검출 벤치마크 데이터셋에서 기존 방어 알고리즘 대비 평균 31.6% 정확도가 향상하는 성과를 거뒀다. 연구팀이 개발한 방어 프레임은 실시간 물체 탐지 시, 모델의 재학습 없이 적대적 패턴 공격을 방어할 수 있으므로 예측 시간 및 비용 절감을 크게 이룰 수 있을 것으로 기대된다. 연구팀은 나아가 이번 연구에서 개발된 방어 프레임을 물리적으로 직접 구현시켜서, 물리적 환경에 자연스레 놓여있는 적대적 패턴 공격과 마찬가지로 좀 더 접근성 있는 방어 방법으로도 활발히 응용될 수 있음을 제시하였다. 노용만 교수는 "국방 및 보안 분야에서 인공지능이 활용되기 위해서 아직 인공지능의 완전성을 높이는 많은 연구가 필요한데, 이번에 개발된 방어 기술은 이 분야들에서 인공지능 모델을 적용 시 실용적인 적대적 방어를 제시함에 의의가 있을 것ˮ이라며 "이 기술은 국방 감시정찰, 보안, 자율주행 분야에도 적용될 수 있을 것이다ˮ라고 말했다. 한편 이번 연구는 방위사업청과 국방과학연구소의 지원으로 한국과학기술원 미래국방 인공지능 특화연구센터에서 수행됐다.
2022.11.15
조회수 7346
유회준 교수, 인공지능 얼굴인식 시스템 K-EYE 개발
우리 대학 전기및전자공학과 유회준 교수 연구팀이 딥러닝 알고리즘을 세계 최소 전력으로 구현하는 인공지능 반도체 칩 CNNP를 개발했다. 그리고 이를 내장한 얼굴인식 시스템 K-Eye 시리즈를 개발했다. 연구팀이 개발한 K-Eye 시리즈는 웨어러블 디바이스와 동글 타입 2가지로 구성된다. 웨어러블 타입인 K-Eye는 블루투스로 스마트폰과 연동 가능하다. 봉경렬 박사과정이 주도하고 ㈜유엑스팩토리(대표 박준영)과 공동으로 개발한 이번 연구는 지난 2월 미국에서 열린 국제고체회로설계학회(ISSCC)에서 세계 최저전력 CNN칩으로 발표돼 주목을 받았다. 최근 글로벌 IT 기업들이 알파고를 비롯한 인공지능 관련 기술들을 경쟁적으로 발표하고 있다. 그러나 대부분은 소프트웨어 기술이라 속도가 느리고 모바일 환경에서는 구현이 어렵다는 한계가 있다. 따라서 이를 고속 및 저전력으로 구동하기 위해 인공지능 반도체 칩 개발이 필수적이다. 연구팀의 K-Eye 시리즈는 1mW 내외의 적은 전력만으로도 항상 얼굴 인식을 수행하는 상태를 유지하면서 사람의 얼굴을 먼저 알아보고 반응할 수 있다는 특징을 갖는다. K-Eye의 핵심 기술인 얼웨이즈 온(Always-On) 이미지 센서와 CNNP라는 얼굴 인식 처리 칩이 있었기 때문에 위와 같은 세계 최저전력 기술이 가능했다. 첫 번째 칩인 얼웨이즈 온(Always-On) 이미지 센서는 얼굴이 있는지 없는지 스스로 판단할 수 있어 얼굴 인식이 될 때에만 작동하게 해 대기 전력을 대폭 낮출 수 있다. 얼굴 검출 이미지 센서는 아날로그 프로세싱으로 디지털 프로세싱을 제어해 센서 자체의 출력 소모를 줄였다. 픽셀과 결합된 아날로그 프로세서는 배경 부분과 얼굴 부분을 구분하는 역할을 하고 디지털 프로세서는 선택된 일부 영역에서만 얼굴 검출을 수행하면 돼 효율적인 작업이 가능하다. 두 번째 칩인 CNNP는 딥러닝을 회로, 구조, 알고리즘 전반에 도입하고 재해석을 진행해 최저 수준의 전력을 구현하는 역할을 했다. 특히 CNNP칩은 3가지의 핵심 기술을 사용했는데 ▲알파고 인공지능 알고리즘에서 사용하는 2차원 계산을 1차원 계산으로 바꿔 고속 저전력화 ▲분산형으로 배치된 칩 내 메모리가 가로방향 뿐 아니라 세로방향도 읽어낼 수 있는 특수 저전력 분산 메모리로의 설계 ▲1024개의 곱셈기와 덧셈기가 동시에 구동돼 막강한 계산력을 가지면서 외부 통신망을 거치지 않고 직접 계산 결과를 주고받을 수 있게 한 점이다. CNNP는 97%의 인식률을 가지면서도 알파고에 사용된 GPU에 비해 5천분의 1정도의 낮은 전력인 0.6mW만을 소모한다. K-Eye를 목에 건 사용자는 앞에서 다가오는 상대방의 얼굴이 화면에 떠오르면 미리 저장된 정보와 실시간으로 찍힌 사진을 비교해 상대방의 이름 등 정보를 자연스럽게 확인할 수 있다. 동글 타입인 K-EyeQ는 스마트폰에 장착해 이용할 수 있는데 사용자를 알아보고 반응하는 기능을 한다. 미리 기억시킨 사용자의 얼굴이 화면을 향하기만 하면 스마트폰 화면이 저절로 켜지면서 그와 관련된 정보를 제공한다. 또한 입력된 얼굴이 사진인지 실제 사람인지도 구분할 수 있어 사용자의 얼굴 대신 사진을 보여주면 스마트폰은 반응하지 않는다. 유 교수는 “인공지능 반도체 프로세서가 4차 산업혁명시대를 주도할 것으로 기대된다”며 “이번 인공지능 칩과 인식기의 개발로 인해 세계시장에서 한국이 인공지능 산업의 주도권을 갖길 기대한다”고 말했다. □ 사진 설명. 사진1. K-EYE 사진 사진2. K-EYEQ 사진 사진3. CNNP 칩 사진
2017.06.14
조회수 19248
우운택 교수, 스마트 관광 증강현실 어플리케이션 개발
〈 우 운 택 교수 〉 우리 대학 문화기술대학원 우운택 교수 연구팀이 스마트 관광 지원을 위한 증강 및 가상현실 어플리케이션을 개발했다. ‘케이 컬처 타임머신(K-Culture Time Machine)’ 어플리케이션은 창덕궁을 대상으로 한 시범 서비스로 iOS 앱스토어에 5월 23일 공개됐다. 개발된 케이 컬처 타임머신은 웨어러블 360도 비디오를 통해 문화유산이나 유적지에 대한 시공간을 넘는 원격 체험을 제공한다. 사용자는 VR기기에 스마트폰을 장착해 제공되는 360도 비디오로 문화 유적지를 원격으로 체험하고 해당 문화유산 및 연관관계가 있는 인물, 장소, 사건 등에 대한 정보를 확인할 수 있다. 또한 소실된 문화유산에 대한 3차원 디지털 복원도 체험할 수 있다. 웨어러블 기기 활용 없이도 모바일 모드를 통해 사용자 주변 유적지 확인, 카메라에 인식된 문화유산을 인식하고 관련된 정보와 콘텐츠를 제공하는 증강현실 기반의 문화유산 가이드가 가능하다. 사용자는 자신의 위치에서 창덕궁 돈화문을 시작으로 인정문, 인정전, 희정당에 이르는 창덕궁 내부를 이동하며 360도 파노라마 이미지나 비디오를 통해 현장을 가상체험 할 수 있다. 현재는 존재하지 않는 인정전 동쪽의 궐내 곽사 지역에는 3D모델을 통한 승정원의 가상 복원을 확인할 수 있다. 위 기능은 웨어러블 기기 없이 스마트폰 상에서도 체험 가능하며 개발 중인 증강현실 기능이 완성되면 현장에서 활용 가능한 수준의 어플리케이션이 될 것으로 기대된다. 우 교수 연구팀은 문화유산 데이터베이스와 증강-가상현실 콘텐츠의 표준화된 메타데이터를 구축하고 이를 적용했다. 이를 활용해 일시적으로 개발 후 소비되는 기존 어플리케이션과는 달리 추가적인 콘텐츠 생성 및 추가가 가능하다. 우 교수는 “증강현실 콘텐츠의 상호 활용성과 재활용성을 증진해 스마트관광 분야의 새로운 시장을 선점할 수 있을 것이다”며 “콘텐츠 개발 비용 절감과 증강현실 콘텐츠 생태계 활성화를 가능하게 하는 다양한 부가 효과도 기대한다”고 말했다. 이번 연구는 ㈜포스트미디어(대표 홍승모)와 문화체육관광부 CT R&D 사업과의 공동 수행을 통해 이뤄졌으며, 관련 연구 성과는 올 7월 캐나다에서 진행되는 HCII 2017 학회를 통해 발표될 예정이다. □ 그림 설명 그림1. 360 VR 서비스 개념도 그림2. K-Culture Time Machine의 모바일 증강현실 기능 구동 화면 그림3. K-Culture Time Machine의 360도 파노라마 이미지-비디오 기능 화면
2017.05.23
조회수 20649
디지털 이미지 위조, 변조 식별 기술 개발
이 흥 규 교수 우리 대학 전산학부 이흥규 교수 연구팀이 육안으로 판단이 어려운 디지털 이미지의 위조 및 변조를 식별할 수 있는 웹 서비스를 개발했다. 이 서비스는 국내에서 처음 시행되는 디지털 이미지 조작탐지 웹 서비스이며, 11일부터 http://forensic.kaist.ac.kr 도메인을 통해 시범 운영된다. 이번 연구는 이미지의 무결성 확인이 필요한 법원, 의료, 군사 등 다양한 분야에서 활용될 전망이다. 논문 사진, 의료 영상, 법적 증거자료 등에서 조작으로 인해 발생할 사회적 문제를 예방할 수 있을 것으로 기대된다. 기존의 이미지 조작 식별 서비스는 포맷 기반의 조작 탐지 방식에 근거해 위조 가능성 여부만을 알 수 있는 수준이었다. 포토샵 등 이미지 수정 프로그램의 다양한 수정 방식을 현재의 탐지 기술로 모두 잡아내기엔 어려움이 있었다. 연구팀은 국제 저명 논문 및 연구 결과들을 기반으로 해당 서비스를 구축했다. 복사-붙여넣기, 리터칭, 전체 변형, 스플라이싱 등 다양한 조작 방식을 식별하기 위해 탐지 방식 역시 여러 방향으로 구축했다. 연구팀은 ▲이미지 픽셀의 통계적 특성의 변화를 탐지하는 픽셀 기반 방식▲이미지 손실 압축 기업에 의한 무결성 검증을 통한 포맷 기반 방식▲카메라의 촬영 프로세스가 남기는 특성에 기반한 카메라 기반 방식을 이용해 조작을 탐지했다. 디지털 이미지에 가해지는 변형은 눈에 보이지 않아도 이미지 내부의 통계적 특성을 변화시킨다. 또한 변형의 종류에 따라 통계적 특성이 다르게 나타나는데 위의 방식들을 통해 조작의 영역 및 방식까지 측정이 가능해진다. 이번 웹 서비스는 논문 발표 수준에서만 진행되던 기술들을 다년간의 연구개발을 통해 일반에 제공함으로써 상용화의 발판이 될 것으로 기대된다. 연구팀은 개발된 기술 중 상당수는 이미 상용화 가능한 수준의 탐지율 및 기술 신뢰도를 보인다고 말했다. 이흥규 교수는 “전문 이미지 편집 툴의 발전에 비해 위변조 탐지 기술은 그 중요도에 비해 관심과 연구가 많이 부족하다”며 “다양한 위, 변조 탐지의 과학적 기법들이 실용화가 가능하도록 연구하겠다”고 말했다. 이번 연구는 미래창조과학부와 한국연구재단이 추진하는 중견연구자지원사업의 지원으로 수행됐다. □ 사진 설명 그림 1. 2008년 이란의 미사일 발사 사진 조작 탐지 결과(복사-붙여넣기) (左 : 원본, 中 : 이란에서 발표한 조작 사진, 右 : 연구팀이 탐지한 조작 영역이 픽셀로 표시된 화면) 그림 2. 탐지 기법 중 ‘색상 변환 탐지 기법’에 의해서 탐지된 결과 (左 : 원본, 中 : 색상 변형 조작 사진 右 : 조작 영역이 색깔로 표시된 화면) 그림 3. 복사-붙여넣기한 사진 조작 탐지 결과 (左 : 원본, 中 : 조작 사진, 右 : 조작 영역이 표시된 화면)
2015.06.11
조회수 16849
슈퍼렌즈로 초고해상도 2차원 실시간 영상획득 성공
우리 학교 물리학과 박용근·조용훈 교수 공동연구팀은 빛의 회절한계 때문에 광학렌즈로는 볼 수 없었던 100nm(나노미터, 10억분의 1미터) 크기 이미지를 2차원으로 실시간 관찰하는데 성공했다. 이번 연구는 지난해 4월 박 교수 연구팀이 페인트 스프레이를 이용해 기존 광학렌즈보다 3배가량 해상도가 뛰어난 ‘슈퍼렌즈’를 세계 최초로 개발해 초점을 형성한 기술의 후속 연구로 향후 초정밀 반도체 공정이나 세포 내 구조 관찰 등에 응용 가능하다. 빛의 굴절을 이용하는 광학렌즈는 빛의 파장보다 작은 초점을 만들 수 없는 특성(회절한계) 때문에 가시광선 영역에서 200~300nm 이하 크기의 물체를 관찰할 수 없다. 연구팀은 빛의 산란 때문에 소멸하는 고주파 근접장을 산란 물질이 밀집한 나노입자로 구성된 페인트 스프레이를 뿌려 미세한 크기의 이미지 정보를 얻어냈다. 이후 빛을 시간 가역성을 이용해 최초의 산란 형태를 계산해 복구함으로써 회절한계를 넘는 나노 이미지를 구현했다. 복잡한 궤적으로 물체를 투사할 때 피사체의 특정위치에서 피사체가 지나온 궤적에 대해 시간을 되돌리는 방식으로 계산하면 피사체의 처음 위치를 알 수 있는 원리다. 이번 연구를 주도한 박용근 교수는 “개발된 기술은 광학 측정과 제어가 요구되는 모든 분야에서 핵심 기반기술로서 사용될 수 있다”며 “기존의 전자현미경은 세포가 파괴되는 단점이 있었지만 이 기술을 이용하면 세포파괴 없이 초고해상도로 관찰할 수 있다”고 말했다. 연구결과는 물리학분야에서 귄위 있는 국제학술지인 ‘피지컬 리뷰 레터스(Physical Review Letters)’ 9일자 온라인판에 게재됐다. 그림1. 관찰영상 그림2. 산란을 통한 나노 이미징의 원리
2014.09.22
조회수 14001
<<
첫번째페이지
<
이전 페이지
1
>
다음 페이지
>>
마지막 페이지 1