
< 전산학부 이의진 교수 연구팀 >
최근 빠른 고령화 및 출산율 감소 등으로 1인 가구가 급속하게 증가하면서, 1인 가구의 정신건강 문제에 대한 관심도 함께 높아지고 있다. 서울시가 실시한 1인 가구 실태조사에 따르면, 1인 가구의 60% 이상이 외로움을 느끼고 있으며, 특히 사회적 고립과 함께 외로움을 겪는 비율이 상당히 높은 것으로 나타났다.
우리 대학 전산학부 이의진 교수 연구팀이 1인 가구의 정신건강 관리를 위해, 사용자 스스로가 자신의 심리 상태를 기록할 수 있도록 지원하는 상황 인식 기반 멀티모달 스마트 스피커 시스템을 개발했다고 24일 밝혔다.
연구팀은 사용자의 주변 상황을 실시간으로 파악해 최적의 시점에 정신건강 관련 질문하도록 이 시스템을 설계했고 기존의 무작위 설문보다 높은 응답률을 달성하는 것을 확인했다.
기존 스마트 스피커를 활용한 정신건강 자가 추적 연구에서 무작위 설문을 할 경우 사용자의 스트레스, 짜증 등 부정적인 감정이 유발시켜 설문 응답에 편향이 발생할 수 있어 각별한 주의가 필요했다.
이러한 문제 해결을 위해 이의진 교수 연구팀은 스마트 스피커에 멀티 모달 센서를 장착해, 사용자의 주변 상황의 변화를 감지해 스피커가 말 걸기 좋은 시점이 검출되면 정신건강 자가 추적 설문을 능동적으로 요청하는 상황 인식 기반 자가 추적 기술을 개발했다.
스피커는 실내 움직임, 조명, 소음, 이산화탄소 등 다양한 센서 데이터를 종합적으로 분석해 사용자의 존재 및 활동을 감지한 뒤, 사용자가 응답하기 적합한 시점에 자가 추적 설문을 능동적으로 요청함으로써, 설문 응답의 효율성을 극대화했다.
또한, 설문 입력 방식의 경우 최근 출시된 스마트 스피커는 명령뿐만 아니라 터치스크린도 지원하므로 사용자들이 음성 또는 터치 입력 방식을 자유롭게 선택할 수 있도록 해 상호작용의 폭을 넓혔다. 이를 통해 사용자는 상황에 맞는 최적의 인터페이스를 선택해 자가 추적을 쉽게 수행할 수 있도록 했다.

< 그림 1. 선제적으로 사용자의 정신건강 관리를 돕는 스마트 스피커. 사용자에게 먼저 말을 걸어 정신건강 자가 추적을 돕는 스마트 스피커가 작동하는 방식이다. 사용자의 주변 상황을 파악하여 사용자가 대화가 가능하다고 예측되는 시점에“지금 당신의 마음 건강은 어떤가요?”와 같이 대화의 시작을 알리는 문장으로 말을 건다. >
개발된 스피커의 사용자 경험을 평가하기 위해서 연구팀은 1인 가구 20세대에 자가 추적 스마트 스피커를 설치해, 한 달 동안 실증 연구를 수행해서 총 2,201개의 정신건강 설문 응답 데이터셋을 구축했다.
데이터셋 분석을 통해 설문 응답 시간, 활동 맥락에 따른 설문 응답 패턴 및 어떤 상황에서 음성 입력(VUI) 또는 터치 입력(GUI)이 더 선호되는지 파악했다.

< 그림 2. 상황 인식 기반 멀티모달 스마트 스피커 시스템 개요도 >
특히, 스마트 스피커가 말로 사용자에게 요청을 하다 보니 스피커 근처에서 사용자의 활동을 감지하는 것이 정신건강 설문 응답률에 큰 영향을 미쳤다. 음성 입력의 편의성에도 불구하고 전반적으로 참가자들은 음성 입력보다는 빠른 응답이 가능한 터치 입력을 선호했다.
데이터 분석 결과, 사용자의 주변 상황을 실시간으로 파악해 최적의 시점에 정신건강 관련 질문을 할 경우 응답률이 더 높으며, 어떤 상황에서 음성 또는 터치 인터페이스를 선호하는지도 파악했다.

< 그림 3. 상황 인식 기반 멀티모달 스마트 스피커 시스템 프로토타입 >
연구를 주도한 이의진 교수는 “이번에 개발한 스마트 스피커를 앞으로 수용전념치료 기법을 활용한 인간상담사와 같은 기능의 정신건강 관리 지원 스마트 스피커로 발전시키고자 한다. 나아가 실내에서 수집된 일상생활 데이터를 AI 모델로 학습해 사용자 정신건강 상태에 따라 라이프 스타일 패턴을 예측하는 시스템도 개발하여 향후 정신질환 조기 발견과 효율적인 관리를 가능케 할 인공지능 에이전트의 혁신을 이끌 것으로 기대된다” 라고 말했다.

< 그림 4. 상황 인식 ESM 스케줄링 알고리즘 >
한편 이 연구는 LG전자-KAIST 디지털 헬스케어 연구센터의 지원을 받아 수행됐고 인간 컴퓨터 상호작용(HCI) 분야 국제 최우수 국제학술대회인 미국컴퓨터협회(ACM) 소속 ‘Conference on Human Factors in Computing Systems (CHI)’에서 지난 2024년 5월에 발표됐다.
논문명: Exploring Context-Aware Mental Health Self-Tracking Using Multimodal Smart Speakers in Home Environments

< 그림 5. 정신건강 자가 추적을 위한 멀티모달 스마트 스피커 대화 시나리오 >
우리 몸의 단백질은 스위치처럼 작동한다. 약물이 단백질에 결합하면 결합 부위 구조가 변하고, 그 변화가 단백질 전체로 전달돼 기능이 켜지거나 꺼진다. 구글 딥마인드의 알파폴드3는 약물-단백질 결합 여부와 결합 부위의 3차원 구조를 예측하는 데 성공했지만, 약물이 결합한 뒤 단백질 내부에서 어떻게 신호를 전달하고 단백질 전체 구조를 바꿔서 실제로 단백질의 기능을 활성화하거나 억제하는지까지는 예측하지 못했다. 우리 대학 연구진이 약물이 ‘붙는지’가 아니라 ‘실제로 작동하는지’까지 예측하는 AI를 개발했다. 우리 대학은 바이오및뇌공학과 이관수 교수 연구팀이 대표적인 신약 표적인 G-단백질 결합 수용체(GPCR)에 대해, 후보 물질이 단순히 결합하는지를 넘어 실제로 단백질을 활성화하는지까지 예측하는 인공지능 모델 ‘GPCRact(지피씨알액트)’를 개발했다고 8일 밝혔다. GPCR(G-Protein Coupled Rece
2026-03-09우리 대학 기계공학과 윤국진 교수 연구팀이 세계적인 컴퓨터 비전 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)에서 주저자로 총 10편의 논문을 채택시키며, 연구팀의 압도적인 학술적 역량을 다시금 증명했다. CVPR은 인공지능과 시각 지능 분야에서 가장 큰 영향력을 가진 국제 학술 대회로, 1983년 시작된 이래 매년 엄격한 심사를 거쳐 우수 논문을 선정한다. 올해 CVPR 2026에는 전 세계에서 총 16,092편의 논문이 제출되었으며, 그중 4,090편이 채택되어 약 25.42%의 낮은 채택률을 기록하였다. 단일 연구실에서 주저자/교신저자로 10편의 논문이 동시에 채택되는 것은 국제적으로 매우 독보적인 성과로 평가받는다. 윤국진 교수 연구팀은 인간 수준의 시각 지능 구현을 목표로 폭넓은 연구를 수행하고 있다. 이번에 채택된 논문들은 이벤트 카메라 기반 기술, 자율주행 인
2026-03-06“슬럼(Slum, 빈곤지역)이 어디에 있는지조차 모르는 도시들” 한국 연구진이 위성사진만으로 슬럼 지역을 스스로 찾아내는 인공지능(AI)을 개발했다. 사람이 미리 위치를 표시해 주지 않아도 새로운 도시에서 자동으로 적응해 정확도를 높이는 기술로, 데이터가 부족한 개발도상국의 도시정책 수립과 공공 자원 배분 방식을 근본적으로 바꿀 수 있을 것으로 기대된다. 우리 대학은 전산학부 차미영 교수와 기술경영학부 김지희 교수 공동 연구팀이 전남대학교(총장 이근배) 지리학과 양재석 교수와 함께한 학제 간 융합 연구를 통해 위성사진 기반 범용 슬럼 탐지 AI 기술을 개발했다고 6일 밝혔다. 이번 연구는 세계 최고 권위의 인공지능 학술대회 ‘국제인공지능학회(AAAI) 2026’에서 ‘사회적 임팩트 AI(AI for Social Impact)’ 부문 최우수논문상(Best Paper Award)을 수상했다. 해당 부문에 제출된 6
2026-03-06만약 영화 다크나잇을 보면서 화면 속 조커를 바라보는 것이 아니라, 내가 조커가 되어 고담시를 직접 바라본다면 어떨까. 관객의 시선이 아닌 등장인물의 눈으로 세상을 경험하는 영상 기술이 현실이 되고 있다. 우리 대학 연구진이 일반 영상만으로도 사용자가 직접 보는 시점의 영상을 생성하는 새로운 인공지능 모델을 개발했다. 으리 대학은 김재철AI대학원 주재걸 석좌교수 연구팀이 관찰자 시점의 영상만을 활용해 영상 속 인물이 실제로 보고 있었을 장면을 정밀하게 생성하는 인공지능 모델 ‘에고엑스(EgoX)’를 개발했다고 23일 밝혔다. 최근 증강현실(AR), 가상현실(VR), AI 로봇 기술이 빠르게 발전하면서 ‘내가 직접 보는 장면’을 그대로 담은 1인칭 시점 영상(Egocentric video)의 중요성이 커지고 있다. 그러나 고품질의 1인칭 영상을 얻기 위해서는 사용자가 고가의 액션캠이나 스마트 글래스를 직접 착용해야 하는 한계가 있었다.
2026-02-23우리 대학 김재철AI대학원 최재식 교수 연구팀이 ㈜카카오뱅크(대표 윤호영)와 공동으로 인공지능(AI) 모델의 판단 근거를 실시간으로 설명할 수 있는 가속화 설명 기술을 개발했다고 밝혔다. 이번 연구 성과는 AI 모델의 예측 결과에 대한 기존 설명 알고리즘 대비 평균 8.5배, 최대 11배 이상 빠른 처리 속도를 달성해, 금융 서비스 등 실시간 의사결정이 필요한 분야에서 설명가능 인공지능(Explainable Artificial Intelligence, 이하 XAI) 기술의 실용화 가능성을 크게 높였다. 금융 분야에서는 AI 시스템이 내린 결정에 대한 명확한 설명이 필수적이다. 특히 대출 심사나 이상거래 탐지와 같이 고객의 권익과 직결된 서비스에서는 AI 모델의 판단 근거를 투명하게 제시해야 하는 규제 요구가 점차 강화되고 있다. 하지만 기존의 설명가능 인공지능(XAI) 기술은 정확한 설명을 생성하기 위해 수백에서 수천 개의 기준점(Baseline)을 반복 계산해야 하므로 막
2025-12-11