본문 바로가기
대메뉴 바로가기
KAIST
연구뉴스
유틸열기
홈페이지 통합검색
-
검색
메뉴 열기
%EC%A0%84%EC%82%B0%ED%95%99%EB%B6%80
최신순
조회순
AI가 여론 조작? 한국어 'AI 생성 댓글' 탐지 기술 개발
생성형 AI 기술이 발전하면서 이를 악용한 온라인 여론 조작 우려가 커지고 있다. 이에 따른 AI 생성글 탐지 기술도 개발되었는데 대부분 영어로 된 장문의 정형화된 글을 기반으로 개발돼, 짧고(평균 51자), 구어체 표현이 많은 한국어 뉴스 댓글에는 적용이 어려웠다. 우리 연구진이 한국어 AI 생성 댓글을 탐지하는 기술을 개발해서 화제다. 우리 대학 전기및전자공학부 김용대 교수 연구팀이 국가보안기술연구소(국보연)와 협력해, 한국어 AI 생성 댓글을 탐지하는 기술 'XDAC'를 세계 최초로 개발했다고 23일 밝혔다. 최근 생성형 AI는 뉴스 기사 맥락에 맞춰 감정과 논조까지 조절할 수 있으며, 몇 시간 만에 수십만 개의 댓글을 자동 생성할 수 있어 여론 조작에 악용될 수 있다. OpenAI의 GPT-4o API를 기준으로 하면 댓글 1개 생성 비용은 약 1원 수준이며, 국내 주요 뉴스 플랫폼의 하루 평균 댓글 수인 20만 개를 생성하는 데 단 20만 원이면 가능할 정도다. 공개 LLM은 자체 GPU 인프라만 갖추면 사실상 무상으로도 대량의 댓글 생성을 수행할 수 있다. 연구팀은 AI 생성 댓글과 사람 작성 댓글을 사람이 구별할 수 있는지 실험했다. 총 210개의 댓글을 평가한 결과, AI 생성 댓글의 67%를 사람이 작성한 것으로 착각했고, 실제 사람 작성 댓글도 73%만 정확히 구분해냈다. 즉, 사람조차 AI 생성 댓글을 정확히 구별하기 어려운 수준에 이르렀다는 의미다. AI 생성 댓글은 오히려 기사 맥락 관련성(95% vs 87%), 문장 유창성(71% vs 45%), 편향성 인식(33% vs 50%)에서 사람 작성 댓글보다 높은 평가를 받았다. 그동안 AI 생성글 탐지 기술은 대부분 영어로 된 장문의 정형화된 글을 기반으로 개발되어 한국어의 짧은 댓글에는 적용이 어려웠다. 짧은 댓글은 통계적 특징이 불충분하고, 이모지·비속어·반복 문자 등 비정형 구어 표현이 많아 기존 탐지 모델이 효과적으로 작동하지 않는다. 또한, 현실적인 한국어 AI 생성 댓글 데이터셋이 부족하고, 기존의 단순한 프롬프팅 방식으로는 다양하고 실제적인 댓글을 생성하는 데 한계가 있었다. 이에 연구팀은 ▲14종의 다양한 LLM 활용 ▲자연스러움 강화 ▲세밀한 감정 제어 ▲참조자료를 통한 증강 생성의 네 가지 전략을 적용한 AI 댓글 생성 프레임워크를 개발해, 실제 이용자 스타일을 모방한 한국어 AI 생성 댓글 데이터셋을 구축하고 이 중 일부를 벤치마크 데이터셋으로 공개했다. 또 설명 가능한 AI(XAI) 기법을 적용해 언어 표현을 정밀 분석한 결과, AI 생성 댓글에는 사람과 다른 고유한 말투 패턴이 있음을 확인했다. 예를 들어, AI는 "것 같다", "에 대해" 등 형식적 표현과 높은 접속어 사용률을 보였고, 사람은 반복 문자(ㅋㅋㅋㅋ), 감정 표현, 줄바꿈, 특수기호 등 자유로운 구어체 표현을 즐겨 사용했다. 특수문자 사용에서도 AI는 전 세계적으로 통용되는 표준화된 이모지를 주로 사용하는 반면, 사람은 한국어 자음(ㅋ, ㅠ, ㅜ 등)이나 특수 기호(ㆍ, ♡, ★, • 등) 등 문화적 특수성이 담긴 다양한 문자를 활용했다. 특히, 서식 문자(줄바꿈, 여러 칸 띄어쓰기 등) 사용에서 사람 작성 댓글의 26%는 이런 서식 문자를 포함했지만, AI 생성 댓글은 단 1%만 사용했다. 반복 문자(예: ㅋㅋㅋㅋ, ㅎㅎㅎㅎ 등) 사용 비율도 사람 작성 댓글이 52%로, AI 생성 댓글(12%)보다 훨씬 높았다. XDAC는 이러한 차이를 정교하게 반영해 탐지 성능을 높였다. 줄바꿈, 공백 등 서식 문자를 변환하고, 반복 문자 패턴을 기계가 이해할 수 있도록 변환하는 방식이 적용됐다. 또 각 LLM의 고유 말투 특징을 파악해 어떤 AI 모델이 댓글을 생성했는지도 식별 가능하게 설계됐다. 이러한 최적화로 XDAC는 AI 생성 댓글 탐지에서 98.5% F1 점수로 기존 연구 대비 68% 성능을 향상시켰으며, 댓글 생성 LLM 식별에서도 84.3% F1 성능을 기록했다. 고우영 선임연구원은 "이번 연구는 생성형 AI가 작성한 짧은 댓글을 높은 정확도로 탐지하고, 생성 모델까지 식별할 수 있는 세계 최초 기술"이라며 "AI 기반 여론 조작 대응의 기술적 기반을 마련한 데 큰 의의가 있다"고 강조했다. 연구팀은 XDAC의 탐지 기술이 단순 판별을 넘어 심리적 억제 장치로도 작용할 수 있다고 설명했다. 마치 음주단속, 마약 검사, CCTV 설치 등이 범죄 억제 효과를 가지듯, 정밀 탐지 기술의 존재 자체가 AI 악용 시도를 줄일 수 있다는 것이다. XDAC는 플랫폼 사업자가 의심스러운 계정이나 조직적 여론 조작 시도를 정밀 감시·대응하는 데 활용될 수 있으며, 향후 실시간 감시 시스템이나 자동 대응 알고리즘으로 확장 가능성이 크다. 이번 연구는 설명가능 인공지능(XAI) 기반 탐지 프레임워크를 제안한 것이 핵심이며, 인공지능 자연어처리 분야 최고 권위 학술대회인 7월 27일부터 개최되는 'ACL 2025' 메인 콘퍼런스에 채택되며 기술력을 인정받았다. ※논문 제목: XDAC: XAI-Driven Detection and Attribution of LLM-Generated News Comments in Korean ※논문원본: https://github.com/airobotlab/XDAC/blob/main/paper/250611_XDAC_ACL2025_camera_ready.pdf 이번 연구는 우리 대학 김용대 교수의 지도 아래 국보연 소속이자 우리 대학 박사과정인 고우영 선임연구원이 제1 저자로 참여했으며, 성균관대학교 김형식 교수와 우리 대학 오혜연 교수가 공동 연구자로 참여했다.
2025.06.24
조회수 710
세계 최고 권위 컴퓨터학회서 연구 역량과 위상 입증
우리 대학은 6월 18일부터 20일까지 서울에서 개최되는 세계 최대 컴퓨터학회인 ACM(Association for Computing Machinery)이 주관하는 프로그래밍 언어 분야 최고 권위의 국제 학술대회인 ‘PLDI (Programming Language Design and Implementation) 2025’에서 기조 강연과 탁월한 연구 성과를 발표하며 KAIST의 세계적 위상을 다시 한 번 입증했다고 18일 밝혔다. 학술대회 첫날 기조강연자로 초대된 전산학부 류석영 교수는 “기술 및 사회적 공익을 위한 프로그래밍 언어 연구: 프로그래밍 언어는 공익을 위해 무엇을 할 수 있을까요?(Programming Language Research for Technical and Social Good: What PL Can Do for Good?)”라는 제목으로 강연을 진행한다. 이번 강연에서 류 교수는 자바스크립트와 같은 언어의 정형화(formalization)를 통한 소프트웨어 안전성 향상뿐 아니라, 프로그래밍 언어 연구가 사회적으로도 다양성(Diversity), 형평성(Equity), 포용성(Inclusion) 확산에 기여할 수 있는 방식을 사례를 통해 제시할 예정이다. 류석영 교수는 “프로그래밍 언어는 기술을 넘어서 공익을 실현하는 수단이 될 수 있다”며 “KAIST 연구진의 이러한 노력이 국내외 연구자들에게도 영감을 줄 수 있기를 기대한다”고 말했다. PLDI는 지난 46년간 전산학 전체에 깊은 영향을 미치는 중요한 논문이 다수 발표된 유서 깊은 학술대회다. 프로그래밍 언어와 컴파일러 등 소프트웨어 전반의 기초가 되는 핵심 기술을 발표하고 있다. 전산학부의 강지훈 교수, 양홍석 교수, 허기홍 교수 연구팀은 이번 PLDI 2025에서 총 5편의 논문을 발표하며, 전체 채택 논문 89편 중 6.7%에 해당하는 비중을 차지했다. 이는 한국 내 대학 중 가장 높은 수치로, 포항공대가 2편을 발표했다. 특히 강지훈 교수는 지난해에 이어 올해도 단독으로 3편의 논문을 발표하며 국내 연구자의 지속적인 두각을 나타냈다. 강 교수는 “학생들이 수년간 공들여 연구한 결과가 세계 최고 학회에서 인정받아 기쁘다”며, “현실 문제 해결에 밀착된 연구를 통해 산업계의 난제를 풀어나가고 있다”고 밝혔다. 다섯 편의 논문은 멀티코어 컴퓨팅 시스템에서의 병렬 자료구조 성능 향상 및 검증, 컴파일러의 신뢰성 확보, 프로그래밍 언어 의미론 연구 등을 중심으로, 운영체제·데이터베이스 등 고성능 시스템 소프트웨어의 품질 향상에 기여할 것으로 기대된다. 이번 학회에 발표되는 5개의 논문은 아래와 같다: 1. 멀티코어 컴퓨팅 시스템에서 동작하는 고성능 병렬 자료구조의 효율 향상(강지훈 교수) 2. 읽기-복사-쓰기(RCU) 방식의 올바름을 현실적인 조건에서 처음으로 검증(강지훈 교수) 3. 고성능 병렬 자료구조인 순회 자료구조의 올바름을 쉽게 증명할 수 있는 방법론 개발(강지훈 교수) 4. 컴파일러의 올바름을 저비용, 고효율로 검사하는 새로운 기술 제시(허기홍 교수) 5. 특이 함수(singular function)를 지원하는 프로그래밍 언어의 첫 번째 의미론 제시(양홍석 교수) 류석영 학부장은 “KAIST 전산학부는 학문적 깊이와 사회적 책임을 동시에 지향하는 연구를 꾸준히 이어가고 있으며, 이번 PLDI 2025에서 그 성과를 세계와 공유할 수 있어 매우 뜻깊다”라고 밝혔다. 해당 논문들은 ACM 공식 저널 형식의 PACMPL(Proceedings of the ACM on Programming Languages)에 게재됐으며, PLDI 2025 학술대회 현장에서 발표될 예정이다. 한편 이번 연구는 한국연구재단 선도연구센터, 우수신진연구자지원사업, 정보통신기획평가원(IITP) 정보통신·방송 기술개발사업, 인공지능반도체 고급인재 양성사업, 대학ICT연구센터, 삼성전자 미래기술육성센터, Amazon의 지원을 받아 수행됐다.
2025.06.18
조회수 754
전산학부 학사과정 여경민, 세계적 권위 AI 학술대회 ICLR 논문 발표
우리 대학 전산학부 여경민 학부과정 학생과 김재훈 박사과정 학생이 성민혁 교수(Visual AI Group) 지도를 받아 공동으로 개발한 새로운 이미지 생성 기술 ‘StochSync’가 세계 최고 수준의 인공지능(AI) 국제 학술대회 ‘ICLR 2025(International Conference on Learning Representations)’에서 채택돼 발표됐다. ICLR은 딥러닝 및 인공지능 분야에서 가장 영향력 있는 학술대회 중 하나로, 전 세계 AI 연구자들이 최신 기술과 성과를 공유하는 대표 행사다. 특히 학부생이 제1저자로 주요 학회에 논문을 발표하는 것은 드문 사례로, 이번 성과는 KAIST의 우수한 연구 역량과 인재 양성 시스템을 다시 한번 입증했다. StochSync는 사전 훈련된 AI 모델을 활용해 기존 평면 이미지를 넘어, 360도 파노라마나 3D 물체 표면의 텍스처처럼 복잡한 형태의 이미지를 별도의 추가 학습 없이도 간편하게 생성할 수 있는 기술이다. 기존에는 이러한 복잡한 이미지 생성을 위해 많은 훈련 데이터나 복잡한 전처리 과정이 필요했으나, StochSync는 이를 대폭 간소화하고 동시에 고품질 결과를 구현했다. 예를 들어 자동차 내부 디자인이나 가구 표면 텍스처 등을 실제 제작에 앞서 사실감 있게 시뮬레이션할 수 있어, 제품 설계 초기 단계에서 빠르고 효율적인 디자인 검토가 가능하다. 해당 기술은 VR, 게임, 산업 디자인 등 다양한 분야에 폭넓게 응용될 수 있다. StochSync의 가장 큰 특징은 정교한 이미지 디테일과 시점 간 일관성을 동시에 확보할 수 있다는 점이다. 기존 이미지 생성 모델들은 고해상도 디테일과 여러 시점 간의 일관성을 동시에 만족시키기 어려웠으나, StochSync는 서로 다른 원리에 기반한 두 기법을 융합한 새로운 방법론을 제시함으로써 이 문제를 해결했다. 이번 연구의 제1저자인 여경민 학생은 2023년 겨울부터 KAIST Visual AI Group 인턴으로 연구에 참여해 왔으며, 김재훈 박사과정 학생과 협업해 실험 설계, 분석, 논문 작성 전반을 주도했다. 여 학생은 “연구 과정에서 여러 기술적 난관을 극복하며 AI 기술의 실제 활용 가능성을 확인할 수 있었다”며 “앞으로 다양한 산업 분야에 적용될 수 있기를 기대한다”고 소감을 밝혔다. 여경민 학생은 이번 ICLR 2025 발표 외에도 2024년 열린 국제 머신러닝 학술대회 NeurIPS 2024에서 논문 두 편의 공저자로 참여하고, 포스터 발표를 진행하는 등 학부생으로서는 드문 연구 성과를 이어가고 있다. ICLR 2025 컨퍼런스는 지난 4월 싱가포르에서 개최되었으며, 여경민 학생은 포스터 및 워크숍 세션을 통해 세계 각국 연구자들과 활발한 학술 교류를 진행했고, 많은 호응을 얻었다. 전산학부 관계자는 “학부생이 세계 최고 수준의 학회에서 주요 성과를 발표한 것은 매우 고무적인 일”이라며 “앞으로도 세계를 선도하는 AI 인재 양성과 연구 역량 강화에 최선을 다할 것”이라고 밝혔다. 해당 논문과 프로젝트에 대한 자세한 정보는 아래 링크에서 확인할 수 있다. 논문 링크: https://arxiv.org/abs/2501.15445 프로젝트 웹사이트: https://stochsync.github.io GitHub: https://github.com/KAIST-Visual-AI-Group/StochSync
2025.06.09
조회수 1208
엔비디아 쿠다 통합메모리 없이 세계 최고 그래프 연산 혁신
인공지능 분야에서 지식 체계나 데이터베이스를 그래프로 저장하고 활용하는 사례가 급증하지만, 일반적으로 복잡도가 높은 그래프 연산은 GPU 메모리의 제한으로 인해 매우 작은 규모의 그래프 등 비교적 단순한 연산만 처리할 수 있다는 한계가 있다. 우리 연구진이 25대의 컴퓨터로 2,000초가 걸리던 연산을 한 대의 GPU 컴퓨터로 처리할 수 있는 세계 최고 성능의 연산 프레임워크를 개발하는데 성공했다. 우리 대학 전산학부 김민수 교수 연구팀이 한정된 크기의 메모리를 지닌 GPU를 이용해 1조 간선 규모의 초대규모 그래프에 대해 다양한 연산을 고속으로 처리할 수 있는 스케줄러 및 메모리 관리 기술들을 갖춘 일반 연산 프레임워크(일명 GFlux, 지플럭스)를 개발했다고 27일 밝혔다. 연구팀이 개발한 지플럭스 프레임워크는 그래프 연산을 GPU에 최적화된 단위 작업인 ‘지테스크(GTask)’로 나누고, 이를 효율적으로 GPU에 배분 및 처리하는 특수한 스케줄링 기법을 핵심 기술로 한다. 그래프를 GPU 처리에 최적화된 자체 개발 압축 포맷인 HGF로 변환해 SSD와 같은 저장장치에 저장 및 관리한다. 기존 표준 포맷인 CSR로 저장할 경우, 1조 간선 규모의 그래프 크기가 9테라바이트(TB)에 이르지만, HGF 포맷을 활용하면 이 크기를 4.6테라바이트(TB)로 절반 가까이 줄일 수 있다. 또한 GPU에서는 메모리 정렬 문제로 그간 사용되지 않았던 3바이트의 주소 체계를 최초로 활용, GPU 메모리 사용량을 약 25% 절감했다. 또한, 엔비디아(NVIDIA) 쿠다(CUDA)의 통합 메모리(Unified Memory)에 전혀 의존하지 않고, 메모리 부족으로 인한 연산 실패를 방지할 수 있도록 메인 메모리와 GPU 메모리를 통합적으로 관리하는 GTask 전용 메모리 관리 기술을 주요 핵심 기술로 포함하고 있다. 김민수 교수 연구팀은 삼각형 개수 세기*와 같은 고난도 그래프 연산을 통해 지플럭스 기술의 성능을 검증했다. *삼각형 개수 세기: 그래프에서 서로 연결된 세 개의 정점이 이루는 삼각형 형태의 관계를 모두 찾고 개수를 세는 연산으로 데이터 분석 및 인공지능에서 널리 활용됨 약 700억 간선 규모의 그래프를 대상으로 한 실험에서, 기존의 최고 성능 기술은 고속 네트워크로 연결된 컴퓨터 25대를 이용해 약 2,000초가 걸리던 삼각형 개수 세기 연산을 지플럭스는 GPU가 장착된 단일 컴퓨터만으로 약 두배 빠른 1,184초 만에 처리하는 데 성공했다. 이는 단일 컴퓨터로 삼각형 개수 세기 연산을 성공적으로 처리한 현재까지 알려진 최대 규모의 그래프다. 김민수 교수는 “최근 그래프 RAG(검색증강생성), 지식 그래프, 그래프 벡터 색인 등 대규모 그래프에 대한 고속 연산 처리 기술의 중요성이 점점 커지고 있다”며, “지플럭스 기술이 이러한 문제를 효과적으로 해결할 것으로 기대한다”고 말했다. 이번 연구에는 전산학부 오세연, 윤희용 박사과정이 각각 제 1, 2 저자로, 김 교수가 창업한 그래프 딥테크 기업인 (주)그래파이 소속 한동형 연구원이 제3 저자로, 김 교수가 교신저자로 참여했고. 연구 결과는 IEEE 주최 국제데이터공학학술대회(ICDE, International Conference on Data Engineering)에서 지난 5월 22일에 발표됐다. ※ 논문제목: GFlux: A fast GPU-based out-of-memory multi-hop query processing framework for trillion-edge graphs ※ DOI: https://doi.ieeecomputersociety.org/10.1109/ICDE65448.2025.00075 한편, 이번 연구는 과기정통부 IITP SW스타랩과 한국연구재단 중견과제의 지원을 받아 수행됐다.
2025.05.27
조회수 1476
감정노동 근로자 정신건강 살피는 AI 나왔다
감정노동이 필수적인 직무를 수행하는 상담원, 은행원 근로자들은 실제로 느끼는 감정과는 다른 감정을 표현해야 하는 상황에 자주 놓이게 된다. 이런 감정적 작업 부하에 장시간 노출되면 심각한 정신적, 심리적 문제뿐만 아니라 심혈관계 및 소화기계 질환 등 신체적 질병으로도 이어질 수 있어 이는 심각한 사회 문제로 여겨지고 있다. 한미 공동 연구진은 인공지능을 활용해서 근로자의 감정적 작업 부하를 자동으로 측정하고 실시간으로 모니터링할 수 있는 새로운 방법을 제시했다. 우리 대학 전산학부 이의진 교수 연구팀은 중앙대학교 박은지 교수팀, 미국 애크런 대학교의 감정노동 분야 세계적인 석학인 제임스 디펜도프 교수팀과 다학제 연구팀을 구성해 근로자들의 감정적 작업 부하를 실시간으로 추정해 심각한 정신적, 신체적 질병을 예방할 수 있는 인공지능 모델을 개발했다고 11일 밝혔다. 연구팀은 이번 연구를 통해 근로자가 감정적 작업 부하가 높은 상황과 그렇지 않은 상황을 87%의 정확도로 구분해 내는데 성공했다. 이 시스템은 기존의 설문이나 인터뷰 같은 주관적인 자기 보고 방식에 의존하지 않고도 감정적 작업 부하를 실시간으로 평가할 수 있어 근로자들의 정신건강 문제를 사전에 예방하고 효과적으로 관리할 수 있다는 장점이 있다. 또한, 이 시스템은 콜센터뿐만 아니라 고객 응대가 필요한 다양한 직종에 적용될 수 있어 감정 노동자들의 장기적인 정신건강 보호에 크게 기여할 것으로 기대된다. 기존 연구는 주로 사무실에서 컴퓨터를 사용해 서류 업무를 주로 다루는 직장인의 인지적 작업 부하(정보를 처리하고 의사결정을 내리는 데 필요한 정신적 노력)를 다뤘으며, 고객을 상대하는 감정 노동자들의 작업 부하를 추정하는 연구는 전무한 상황이었다. 감정 노동자들의 감정적 작업 부하는 고용주로부터 요구되는 정서 표현 규칙과 관련이 깊다. 특히 감정노동이 요구되는 상황에서는 자신의 실제 감정을 억제하고 친절한 응대를 해야 하기 때문에 대체적으로 근로자의 감정이나 심리적 상태가 표면적으로 드러나 있지 않다. 기존의 감정-탐지 인공지능 모델들은 주로 인간의 감정이 표정이나 목소리에 명백하게 드러나는 데이터를 활용해 모델을 학습해왔기 때문에 자신의 감정을 억제하고 친절한 응대를 강요받는 감정 노동자들의 내적인 감정적 작업 부하를 측정하는 것은 어려운 일로 여겨져 왔다. 모델 개발을 위해서는 현실을 충실히 반영한 고품질의 상담 시나리오 데이터셋 구축이 필수적어서 연구팀은 현업에 종사 중인 감정 노동자들을 대상으로 고객상담 데이터셋을 구축했다. 일반적인 콜센터 고객을 응대 시나리오를 개발하여 31명의 상담사로부터 음성, 행동, 생체신호 등 다중 모달 센서 데이터를 수집했다. 연구팀은 인공지능 모델 개발을 위해 고객과 상담사의 음성 데이터로부터 총 176개의 음성특징을 추출했다. 음성 신호 처리를 통해서 시간, 주파수, 음조 등 다양한 종류의 음성특징이 추출하며, 대화 내용은 고객의 개인정보 보호를 위하여 사용하지 않았다. 정서 표현 규칙으로 인한 상담사의 억제된 감정 상태를 추정하기 위하여 상담사로부터 수집된 생체신호로부터 추가적인 특징을 추출했다. 피부의 전기적 특성을 나타내는 피부 전도도(EDA, Electrodermal activity) 13개의 특징, 뇌의 전기적 활성도를 측정하는 뇌파(EEG, Electroencephalogram) 20개의 특징, 심전도(ECG, Electrocardiogram) 7개의 특징, 그 외 몸의 움직임, 체온 데이터로부터 12개의 특징을 추출했다. 총 228개의 특징을 추출해 9종의 인공지능 모델을 학습하여 성능 비교 평가를 수행했다. 결과적으로, 학습된 모델은 상담사가 감정적 작업 부하가 높은 상황과 그렇지 않은 상황을 87%의 정확도로 구분해 냈다. 흥미로운 점은 기존 감정-탐지 모델에서 대상의 목소리가 성능 향상에 기여하는 주요한 요인이었지만 본인의 감정을 억누르고 친절함을 유지해야 하는 감정노동의 상황에서는 상담사의 목소리가 포함될 경우 오히려 모델의 성능이 떨어지는 현상을 보였다는 것이다. 그 외에 고객의 목소리, 상담사의 피부 전도도 및 체온이 모델 성능 향상에 중요한 영향을 미치는 특징으로 밝혀졌다. 이의진 교수는 "감정적 작업 부하를 실시간으로 측정할 수 있는 기술을 통해 감정노동의 직무 환경 개선과 정신건강을 보호할 수 있다”며 "개발된 기술을 감정 노동자의 정신건강을 관리할 수 있는 모바일 앱과 연계하여 실증할 예정이다”고 말했다. 중앙대학교 박은지 교수(KAIST 전산학부 박사 졸업)가 제1 저자이며 유비쿼터스 컴퓨팅 분야 국제 최우수 학술지인 「Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies」 2024년 9월호에 게재됐다. 또한, 이 연구는 인간-컴퓨터 상호작용 분야의 최우수 학술대회인 ACM UbiComp 2024에서 발표됐다. (논문제목: Hide-and-seek: Detecting Workers’ Emotional Workload in Emotional Labor Contexts Using Multimodal Sensing, https://doi.org/10.1145/3678593) 이번 연구는 과학기술정보통신부 정보통신기획평가원 ICT융합산업혁신기술개발사업의 지원을 받아 수행됐다.
2025.02.11
조회수 4546
천천히 걸음 속도 높여도 다 아는 인공지능 기술 개발
최근 건강에 관한 관심이 점차 커지면서 일상생활에서 스마트 워치, 스마트 링 등을 통해 자기 신체 변화를 살펴보는 일이 보편화되었다. 그런데 기존 헬스케어 앱에서는 걷기에서 뛰기로 갑자기 변화를 줄 경우는 잘 측정이 되지만 천천히 속도를 높이는 경우는 측정이 안 되는 현상이 발생했다. 우리 연구진이 완만한 변화에도 동작을 정확하게 파악하는 기술을 개발했다. 우리 대학 전산학부 이재길 교수 연구팀이 다양한 착용 기기 센서 데이터에서 사용자 상태 변화를 정확하게 검출하는 새로운 인공지능 기술을 개발했다고 12일 밝혔다. 보통 헬스케어 앱에서는 센서 데이터를 통해 사용자의 상태 변화를 탐지하여 현재 동작을 정확히 인식하는 기능이 필수이다. 이를 변화점 탐지라 부르며 다양한 인공지능 기술이 변화점 탐지 품질을 향상하기 위해 적용되고 있다. 이재길 교수팀은 사용자의 상태가 급진적으로 변하거나 점진적으로 변하는지에 관계없이 정확하게 잘 동작하는 변화점 탐지 방법론을 개발했다. 연구팀은 각 시점의 센서 데이터를 인공지능 기술을 통해 벡터*로 표현하였을 때, 이러한 벡터가 시간이 지남에 따라 이동하는 방향을 주목하였다. 같은 동작이 유지될 때는 벡터가 이동하는 방향이 급변하는 경향이 크고, 동작이 바뀔 때는 벡터가 직선상으로 이동하는 경향이 크게 나타났다. *벡터: 사용자의 시점별 상태 특성(이동속도, 자세, 움직임 등)을 나타내는 가장 좋은 수학적 개념 연구팀은 제안한 방법론을 ‘리커브(RECURVE)’라고 명명했다. 리커브(RECURVE)는 양궁 경기에 쓰이는 활의 한 종류이며, 활이 휘어 있는 모습이 데이터의 이동 방향 변화 정도(곡률)로 변화점을 탐지하는 본 방법론의 동작 방식을 잘 나타낸다고 보았다. 이 방법은 변화점 탐지의 기준을 거리에서 곡률이라는 새로운 관점으로 바라본 매우 신선한 방법이라는 평가를 받았다. 연구팀은 변화점 탐지 문제에서 다양한 헬스케어 센서 스트림 데이터를 사용하여 방법론의 우수성을 검증하여 기존 방법론에 비해 최대 12.7% 정확도 향상을 달성했다. 연구팀을 지도한 이재길 교수는 "센서 스트림 데이터 변화점 탐지 분야의 새로운 지평을 열 만한 획기적인 방법이며 실용화 및 기술 이전이 이뤄지면 실시간 데이터 분석 연구 및 디지털 헬스케어 산업에 큰 파급효과를 낼 수 있을 것이다ˮ고 말했다. 데이터사이언스대학원을 졸업한 신유주 박사가 제1 저자, 전산학부 박재현 석사과정 학생이 제2 저자로 참여한 이번 연구는 최고권위 국제학술대회 `신경정보처리시스템학회(NeurIPS) 2024'에서 올 12월 발표될 예정이다. (논문명 : Exploiting Representation Curvature for Boundary Detection in Time Series) 한편, 이 기술은 과학기술정보통신부 재원으로 정보통신기획평가원의 지원을 받아 SW컴퓨팅산업원천기술개발사업 SW스타랩 과제로 개발한 연구성과 결과물(RS-2020-II200862, DB4DL: 딥러닝 지원 고사용성 및 고성능 분산 인메모리 DBMS 개발)이다.
2024.11.12
조회수 4508
박종세 교수팀, 2024 IISWC 다수 상 동시 석권
우리 대학 전산학부 박종세 교수 연구팀이 지난 9월 15일부터 9월 17일까지 캐나다 밴쿠버에서 열린 ‘2024 IEEE 국제 워크로드 특성화 심포지엄(IEEE International Symposium on Workload Characterization, 이하 IISWC 2024)’에서 최우수 논문상(Best Paper Award)과 최우수 연구 기록물 상(Distinguished Artifact Award)’을 동시에 수상했다고 26일 밝혔다. 박 교수 연구팀은 ‘초거대 언어모델 추론 서비스 제공을 위한 HW/SW 공동 시뮬레이션 인프라(LLMServingSim: A HW/SW Co-Simulation Infrastructure for LLM Inference Serving at Scale)’ 논문으로 두 상을 동시에 수상했다. IISWC는 컴퓨터 시스템 워크로드 특성화 분야에서 권위를 자랑하는 국제 학회이며, 개최시마다 최우수 논문상과 최우수 연구 기록물 상을 하나씩 수여하는데 올해에는 박 교수팀의 논문이 두 상을 모두 단독으로 수상했다. 이번 수상 연구는 대규모 거대언어모델(LLM) 추론 서비스를 위한 하드웨어와 소프트웨어 통합 시뮬레이션 인프라를 최초 개발한 점, 향후 LLM 추론 연구의 지속적인 발전을 위해 오픈소스로 공개한 코드의 완성도와 사용자 편의성 측면에서 높은 평가를 받았다. 이번 연구에서 연구팀은 챗GPT와 같은 LLM 추론 서비스를 실행하는 대규모 시스템을 여러 가지 하드웨어와 소프트웨어를 추가해 시뮬레이션할 수 있는 시뮬레이션 인프라를 제안했다. 이를 통해 GPU(그래픽처리장치), NPU(신경망처리장치)와 PIM(지능형메모리반도체)과 같은 다양한 하드웨어뿐만 아니라 반복 수준 스케쥴링, KV 캐시 페이징과 같은 초거대 언어모델 추론을 위한 소프트웨어적 요소를 모두 함께 시뮬레이션할 수 있었다. 이번 연구는 KAIST 전산학부 박종세 교수팀의 조재홍, 김민수, 최현민, 허구슬 학생들이 주도했다. 상을 받은 KAIST 전산학부 박종세 교수는 “이번 연구를 통해, LLM 클라우드 상에서 다양한 AI 반도체와 시스템 소프트웨어의 성능을 종합적으로 평가해 볼 수 있는 오픈소스 도구(Tool)을 공개할 수 있게 되어 기쁘고, 앞으로도 생성형 AI를 위한 클라우드 시스템 연구를 지속해 나갈 것이다”라고 소감을 전했다. 이번 연구 결과는, 챗GPT와 같이 LLM을 활용하는 단순한 챗봇 AI를 넘어, 생성형 AI(Generative AI)로 대표되는 미래 AI 산업에서 이종 AI 반도체 기반 클라우드 시스템을 구축하는 등 다양한 분야에 활용될 수 있을 것으로 기대된다. 한편 이번 연구는 한국연구재단 우수신진연구자지원사업, 정보통신기획평가원(IITP), 인공지능반도체대학원지원사업, 및 하이퍼엑셀의 지원을 받아 수행됐다.
2024.10.11
조회수 4893
지금 당신의 마음 건강은 어떠한가요?
최근 빠른 고령화 및 출산율 감소 등으로 1인 가구가 급속하게 증가하면서, 1인 가구의 정신건강 문제에 대한 관심도 함께 높아지고 있다. 서울시가 실시한 1인 가구 실태조사에 따르면, 1인 가구의 60% 이상이 외로움을 느끼고 있으며, 특히 사회적 고립과 함께 외로움을 겪는 비율이 상당히 높은 것으로 나타났다. 우리 대학 전산학부 이의진 교수 연구팀이 1인 가구의 정신건강 관리를 위해, 사용자 스스로가 자신의 심리 상태를 기록할 수 있도록 지원하는 상황 인식 기반 멀티모달 스마트 스피커 시스템을 개발했다고 24일 밝혔다. 연구팀은 사용자의 주변 상황을 실시간으로 파악해 최적의 시점에 정신건강 관련 질문하도록 이 시스템을 설계했고 기존의 무작위 설문보다 높은 응답률을 달성하는 것을 확인했다. 기존 스마트 스피커를 활용한 정신건강 자가 추적 연구에서 무작위 설문을 할 경우 사용자의 스트레스, 짜증 등 부정적인 감정이 유발시켜 설문 응답에 편향이 발생할 수 있어 각별한 주의가 필요했다. 이러한 문제 해결을 위해 이의진 교수 연구팀은 스마트 스피커에 멀티 모달 센서를 장착해, 사용자의 주변 상황의 변화를 감지해 스피커가 말 걸기 좋은 시점이 검출되면 정신건강 자가 추적 설문을 능동적으로 요청하는 상황 인식 기반 자가 추적 기술을 개발했다. 스피커는 실내 움직임, 조명, 소음, 이산화탄소 등 다양한 센서 데이터를 종합적으로 분석해 사용자의 존재 및 활동을 감지한 뒤, 사용자가 응답하기 적합한 시점에 자가 추적 설문을 능동적으로 요청함으로써, 설문 응답의 효율성을 극대화했다. 또한, 설문 입력 방식의 경우 최근 출시된 스마트 스피커는 명령뿐만 아니라 터치스크린도 지원하므로 사용자들이 음성 또는 터치 입력 방식을 자유롭게 선택할 수 있도록 해 상호작용의 폭을 넓혔다. 이를 통해 사용자는 상황에 맞는 최적의 인터페이스를 선택해 자가 추적을 쉽게 수행할 수 있도록 했다. 개발된 스피커의 사용자 경험을 평가하기 위해서 연구팀은 1인 가구 20세대에 자가 추적 스마트 스피커를 설치해, 한 달 동안 실증 연구를 수행해서 총 2,201개의 정신건강 설문 응답 데이터셋을 구축했다. 데이터셋 분석을 통해 설문 응답 시간, 활동 맥락에 따른 설문 응답 패턴 및 어떤 상황에서 음성 입력(VUI) 또는 터치 입력(GUI)이 더 선호되는지 파악했다. 특히, 스마트 스피커가 말로 사용자에게 요청을 하다 보니 스피커 근처에서 사용자의 활동을 감지하는 것이 정신건강 설문 응답률에 큰 영향을 미쳤다. 음성 입력의 편의성에도 불구하고 전반적으로 참가자들은 음성 입력보다는 빠른 응답이 가능한 터치 입력을 선호했다. 데이터 분석 결과, 사용자의 주변 상황을 실시간으로 파악해 최적의 시점에 정신건강 관련 질문을 할 경우 응답률이 더 높으며, 어떤 상황에서 음성 또는 터치 인터페이스를 선호하는지도 파악했다. 연구를 주도한 이의진 교수는 “이번에 개발한 스마트 스피커를 앞으로 수용전념치료 기법을 활용한 인간상담사와 같은 기능의 정신건강 관리 지원 스마트 스피커로 발전시키고자 한다. 나아가 실내에서 수집된 일상생활 데이터를 AI 모델로 학습해 사용자 정신건강 상태에 따라 라이프 스타일 패턴을 예측하는 시스템도 개발하여 향후 정신질환 조기 발견과 효율적인 관리를 가능케 할 인공지능 에이전트의 혁신을 이끌 것으로 기대된다” 라고 말했다. 한편 이 연구는 LG전자-KAIST 디지털 헬스케어 연구센터의 지원을 받아 수행됐고 인간 컴퓨터 상호작용(HCI) 분야 국제 최우수 국제학술대회인 미국컴퓨터협회(ACM) 소속 ‘Conference on Human Factors in Computing Systems (CHI)’에서 지난 2024년 5월에 발표됐다. 논문명: Exploring Context-Aware Mental Health Self-Tracking Using Multimodal Smart Speakers in Home Environments
2024.09.24
조회수 4348
딥러닝 대부 요슈아 벤지오 교수와 AI 연구센터 설립
우리 대학 전산학부 안성진 교수 연구팀이 세계적인 인공지능 권위자인 캐나다의 요슈아 벤지오(Yoshua Bengio) 교수와 함께 ‘KAIST-밀라(MILA) 프리프론탈 인공지능 연구센터’를 KAIST에 7월 1일부로 설립했다고 4일 밝혔다. 이 사업은 과학기술정보통신부와 한국연구재단이 지원하는 ‘2024년도 해외우수연구기관 협력허브구축사업’의 일환으로, 안성진 교수 연구팀은 2024년 7월부터 2028년 12월까지 총 27억 원의 지원을 받게 된다. 이 센터는 차세대 인공지능 기술 개발을 위한 국제공동연구의 중심지로서 역할을 하게 될 예정이다. 요슈아 벤지오 교수는 딥러닝 분야의 창시자 중 한 명으로, 현대 인공지능 연구에 지대한 영향을 미친 인물이다. 그의 연구는 현재의 딥러닝 기술을 탄생시키고 발전시키는 데 중요한 역할을 했다. KAIST 안성진 교수팀과의 이번 협력은 요슈아 벤지오 교수의 몬트리올 학습 알고리즘 연구소(MILA, Montreal Institute for Learning Algorithms)와 KAIST의 선도적인 인공지능 연구 역량을 결합해, 차세대 인공지능 기술 발전에 새로운 지평을 열 것으로 기대된다. 이번 연구의 핵심은 인간의 고위인지 능력을 모방하는 ‘시스템2’ AI 기술의 개발이다. 시스템2는 데니얼 카네만의 듀얼프로세스 이론에서 제시된 개념으로, 직관적이고 빠른 인지를 담당하는 ‘시스템1‘과 달리, 수학적 논리 추론 같이 복잡하고 순차적인 사고 과정을 담당하는 기능을 수행한다. 이 과정은 주로 뇌의 전두엽에서 이뤄지며, 계획, 판단, 추론 등 고차원적인 인지 기능을 관리한다. 대형언어모델의 발전에도 불구하고, 현재의 딥러닝 기술은 이러한 고위인지 기능을 효과적으로 구현하는 데 여전히 한계를 보이고 있다. 이번 연구는 이러한 한계를 극복하고, 전두엽이 담당하는 고위인지 기능을 AI에 통합하는 ‘프리프론탈 AI’를 구현하기 위한 기반 기술을 확보하는 것을 목표로 한다. 또한, 이번 연구에는 우리 대학 홍승훈 교수와 포항공과대학교(POSTECH)의 안성수 교수도 공동 연구진으로 참여할 예정이다. 홍승훈 교수는 시스템2 메타 학습 알고리즘을 연구하며, 안성수 교수는 시스템2 기능을 ‘과학을 위한 AI(AI4Science)’ 응용에 적용하기 위한 연구를 진행할 예정이다. 안성진 교수는 “요슈아 벤지오 교수와의 협력은 차세대 인공지능 기술 개발에 있어 중요한 이정표가 될 것이다”라며, “이 연구를 통해 인간의 전두엽이 수행하는 고위인지 기능을 모방하는 딥러닝 알고리즘을 개발하고, 안전하고 신뢰할 수 있는 인공지능 에이전트를 구현하는 기술적 기반을 마련할 수 있을 것이다”라고 연구의 의의를 설명했다. 이번 연구센터 설립을 통해 우리 대학은 국제적인 연구 네트워크를 강화하고, 인공지능 분야에서 세계적인 선도 기관으로서의 위치를 더욱 공고히 할 전망이다.
2024.09.04
조회수 7302
미국 국방부가 주목한 C-러스트 기술 선도하다
컴퓨터 시스템을 작동시키기 위해서는 소프트웨어를 작성해야 하는데 그때 필요한 언어가 바로 프로그래밍 언어이다. 실행속도도 빠르고 유지보수도 쉬운 언어가 C언어인데 메모리 할당 및 관리 등에 치명적인 문제점을 가지고 있다. 이런 문제를 해결하기 위해 개발된 프로그래밍 언어는 러스트이다. 미국 백악관이나 국방성에서 메모리 문제를 막기 위해 러스트같이 안전한 언어 사용을 촉구하고 있는데 우리 대학 연구진이 C-러스트 코드 번역 기술을 이미 선제적으로 개발하고 선도하고 있어 화제다. 우리 대학 전산학부 류석영 교수 연구팀(프로그래밍 언어 연구실)이 C언어의 유니언(union)*을 러스트의 태그드 유니언(tagged union)으로 변환하는 기술을 세계 최초로 개발했다고 13일 밝혔다. *유니언: 여러 종류의 데이터를 같은 공간에 보관해 메모리 효율을 높이는 C언어의 핵심 기능이다. 그러나 보관된 데이터가 어떤 종류인지 구분하지 않아 메모리 문제를 일으킬 수 있다. **태그드 유니언: 같은 공간에 보관할 수 있는 여러 종류의 데이터 중 어떤 종류의 데이터를 보관하는지 태그를 붙여서 구분하여, 메모리 문제를 일으키지 않는다. 연구팀은 C언어의 유니언에 특화된 새로운 프로그램 분석 기법을 고안해 러스트의 태그드 유니언으로 자동 번역하는 데 성공했다. 올해 2월 백악관에서도 C언어의 사용을 중단하라고 촉구한 바가 있고(https://www.whitehouse.gov/wp-content/uploads/2024/02/Final-ONCD-Technical-Report.pdf) 미국 국방고등연구계획국(이하 DARPA)에서 C언어로 작성된 코드를 러스트(Rust)로 자동 번역하는 기술을 개발하는 연구 과제를 발표했다.(https://www.darpa.mil/program/translating-all-c-to-rust) DARPA는 미국 국방성의 연구·개발을 담당하는 기관이며 인터넷의 원형인 아파넷(ARPANET)을 개발하는 등 혁신적이고 영향력 있는 연구를 지원해 왔다. DARPA는 이 과제를 제안하며 C의 메모리 문제를 막기 위해 러스트같이 안전한 언어를 사용해야 한다고 밝혔다. 러스트는 2015년부터 개발된 프로그래밍 언어다. 운영 체제, 웹 브라우저 개발 등에 쓰이며, 2022년에는 리눅스(Linux) 개발에도 공식 사용되기 시작했다.(https://www.infoq.com/news/2022/12/linux-6-1-rust/) C와 달리 프로그램 실행 전에 메모리 문제를 탐지하고 예방할 수 있는 것이 특징이다. 류 교수 연구진은 2023년 5월과 2024년 6월에 각각 C의 뮤텍스(mutex)*와 출력 파라미터(output parameter)**를 러스트로 변환하는 기술을 세계 최초로 개발해, 최우수 국제 학술대회인 국제소프트웨어엔지니어링학회(ICSE)와 프로그래밍언어설계구현학회(PLDI)에 발표한 바 있다. *뮤텍스: 프로그램 동기화에 필요한 기능 **출력 파라미터: 계산 결과 전달에 사용되는 기능 C언어와 러스트의 큰 간극으로 인해 세계적으로도 C-러스트 코드 번역 기술을 성공적으로 개발한 연구팀은 극소수다. 그마저도 포인터(pointer)*를 변환하는 데 머물고 있다. 그러나 류석영 교수 연구팀은 C의 여러 핵심 기능을 변환하는 기법을 연달아 제시해 C-러스트 코드 번역 기술을 선도하고 있다. *포인터: 데이터 저장 위치를 표현하는 기능 류석영 교수는 “안전한 소프트웨어 제작을 목표로 연구하면서 C-러스트 코드 번역의 중요성을 일찍이 파악하고 각종 프로그래밍 언어 기법들을 코드 번역에 적극적으로 도입하여 나온 결과”라면서, “완전한 자동 번역을 위해 아직 풀어야 할 난제가 많으니 후속 연구에 정진하여 계속 분야를 선도하겠다”고 말했다. 전산학부 홍재민 석박사통합과정 학생이 제1 저자로 참여한 이번 연구 결과는 최우수 국제 학술대회인 국제자동소프트웨어엔지니어링학회(ASE)에 채택됐다(논문명: To Tag, or Not to Tag: Translating C's Unions to Rust's Tagged Unions). 한편 이번 연구는 한국연구재단 선도연구센터 및 중견연구자지원사업, 정보통신기획평가원(IITP), 삼성전자의 지원을 받아 수행됐다.
2024.08.13
조회수 7239
인프라 없어도 치매 환자 신속히 찾을 수 있어요
무선랜이나 블루투스와 같은 무선신호 인프라가 설치되지 않은 건설 현장과 공장 건물에서도 동작하고, 어린이나 치매 노인을 찾아낼 수 있는 실내외 통합 GPS 시스템을 우리 연구진이 개발해 화제다. 우리 대학 전산학부 지능형 서비스통합 연구실 한동수 교수 연구팀이 전 세계 모든 건물에서 위치 서비스를 제공할 수 있는 ‘범용 실내외 통합 GPS 시스템’을 개발했다고 12일 밝혔다. 이번에 개발된 범용 실내외 통합 GPS 시스템인 카이로스(KAILOS, KAIST LOcating System)는 서비스 범위를 소수의 특정된 건물에서 벗어나 전 세계 모든 건물로 확장했다. 위치 인프라 제약에서도 벗어나 앞으로는 무선 신호가 부재한 건물에서도 구동되는, 소위 범용적인 실내외 통합 GPS 위치인식 서비스가 가능해질 전망이다. 연구팀은 실내외 전환 탐지 AI 기법과 건물 출입구를 탐지하는 AI 기법을 통합시킨 센서퓨전 위치인식 기법을 개발했다. 이 기법들은 건물 출입구 탐지, 층 탐지, 계단/엘리베이터와 같은 랜드마크 탐지 기법이 보행자 항법 기법(PDR)과 연계돼 작동한다. 구체적으로 연구팀은 GPS 신호와 관성센서에서 얻어지는 신호를 복합적으로 활용해 사용자가 진입하는 건물을 판별하고 건물에 진입하는 시점과 위치를 실시간에 탐지하는 기법을 개발했다. 건물 내에서는 기압과 관성센서를 활용해 계단/엘리베이터를 이용한 수직 이동을 탐지하고 기압 정보를 활용해 층을 탐지하는 기법도 개발했다. 한편 연구팀은 GPS, 와이파이(WiFi), 블루투스 신호 칩과 관성센서, 기압 센서, 지자기 센서, 조도 센서를 통합시킨 위치 전용 사물인터넷(IoT) 태그도 제작했다. 개발된 태그에 장착된 GPS 센서는 위성에서 직접 수신되는 L1 신호뿐 아니라 건물에 반사되는 L5 신호도 처리해 도심 협곡에서도 높은 정확도를 달성할 수 있다. 이제 위치 태그만 있으면 LTE 신호가 제공되는 전 세계 어느 건물에서도 실내외 구분 없이 위치를 추정하고, 추정된 위치에 기반한 다양한 실내외 통합 위치기반 응용 서비스를 개발할 수 있다. 사물인터넷(IoT) 태그의 배터리 소요에 있어서는 위치 서비스 주기에 따라 달라질 수 있지만 실시간 서비스 조건이 완화된 환경에서는 배터리 충전 없이 수일 동안 서비스를 제공할 수 있음을 확인했다. 연구팀은 스마트폰을 위치 단말로 사용하는 스마트폰에서 구동되는 실내외 통합 GPS 앱도 함께 개발했다. 개발된 앱은 위치기반 안전, 편의, 엔터테인먼트와 같은 응용 분야에서 널리 사용되면 연구팀이 보유하고 있는 ‘크라우드소싱 무선 라디오맵 구축 자동화 기법’과 접목해 도시 혹은 국가 수준의 정밀한 무선 라디오맵 구축도 가능해질 전망이다. 향후 도시 및 국가 수준의 라디오맵이 구축되면 신뢰도 높고 정확한 실내외 통합 GPS 서비스를 할 수 있다. 연구팀을 이끄는 전산학부 한동수 교수는 “이번에 업그레이드된 카이로스(KAILOS) 실내외 통합 GPS 시스템은 위치 인프라가 설치되지 않은 건설 현장과 공장 건물에서 개발된 시스템의 기능과 성능을 평가하는 6차례의 개념 증명(Proof of Concept, PoC) 과정도 수행해 상용화 가능성을 입증했다”며, “또한 어린이나 치매 노인 보호를 위해 실내외 통합 GPS 위치 태그를 신발에 장착하려는 요구가 있다. 건설 현장, 그리고 조선소, 제철소와 같은 공장 작업자의 안전을 위치에 기반해 관리하려는 시도도 있다. 이번에 개발한 시스템은 이런 상황에 적용이 쉬우며, 소방관이나 경찰의 도움이 필요한 구조요청에도 신속하게 대응할 수 있다”고 말했다. 이번에 개발된 실내외 통합 GPS 시스템은 2022년 개발이 시작된 한국형 GPS 시스템(KPS)의 서비스 영역을 실내로 확장하는 데도 활용될 것으로 기대된다. 한편 이번 연구는 방위사업청의 재원을 받아 국방과학연구소의 지원(미래도전 국방기술 연구개발사업)으로 수행됐다.
2024.08.12
조회수 4182
변화에 민감한 사용자도 맞춰주는 인공지능 기술 개발
인공지능 심층신경망 모델의 추천시스템에서 시간이 지남에 따라 사용자의 관심이 변하더라도 변화한 관심 또한 효과적으로 학습할 수 있는 인공지능 훈련 기술 개발이 요구되고 있다. 사용자의 관심이 급변하더라도 기존의 지식을 유지하며 새로운 지식을 축적하는 인공지능 연속 학습을 가능하게 하는 기술이 KAIST 연구진에 의해 개발됐다. 우리 대학 전산학부 이재길 교수 연구팀이 다양한 데이터 변화에 적응하며 새로운 지식을 학습함과 동시에 기존의 지식을 망각하지 않는 새로운 연속 학습(continual learning) 기술을 개발했다고 5일 밝혔다. 최근 연속 학습은 훈련 비용을 줄일 수 있도록 프롬프트(prompt) 기반 방식이 대세를 이루고 있다. 각 작업에 특화된 지식을 프롬프트에 저장하고, 적절한 프롬프트를 입력 데이터에 추가해 심층신경망에 전달함으로써 과거 지식을 효과적으로 활용한다. 이재길 교수팀은 기존 접근방식과 다르게 작업 간의 다양한 변화 정도에 적응할 수 있는 적응적 프롬프팅(adaptive prompting)에 기반한 연속 학습 기술을 제안했다. 현재 학습하려는 작업이 기존에 학습하였던 작업과 유사하다면 새로운 프롬프트를 생성하지 않고 그 작업에 할당된 프롬프트에 추가로 지식을 축적한다. 즉, 완전히 새로운 작업이 입력될 때만 이를 담당하기 위한 새로운 프롬프트를 생성하도록 하고 연구팀은 새로운 작업이 들어올 때마다 클러스터링이 적절한지 검사해 최적의 클러스터링 상태를 유지하도록 했다. 연구팀은 이미지 분류 문제에 대해 작업 간의 다양한 변화 정도를 가지는 실세계 데이터를 사용해 방법론을 검증했다. 이 결과 연구팀은 기존의 프롬프트 기반 연속 학습 방법론에 비해, 작업 간의 변화 정도가 항상 큰 환경에서는 최대 14%의 정확도 향상을 달성했고, 작업 간의 변화가 클 수도 있고 작을 수도 있는 환경에서는 최대 8%의 정확도 향상을 달성했다. 또한, 제안한 방법에서 유지하는 클러스터 개수가 실제 유사한 작업의 그룹 개수와 거의 같음을 확인했다. 온라인 클러스터링을 수행하는 비용이 매우 작아 대용량 데이터에도 쉽게 적용할 수 있다. 연구팀을 지도한 이재길 교수도 "연속 학습 분야의 새로운 지평을 열 만한 획기적인 방법이며 실용화 및 기술 이전이 이뤄지면 심층 학습 학계 및 산업계에 큰 파급효과를 낼 수 있을 것이다ˮ고 말했다. 전산학부 김도영 박사과정 학생이 제1 저자, 이영준 박사과정, 방지환 박사과정 학생이 제4, 제6 저자로 각각 참여한 이번 연구는 최고권위 국제학술대회 `국제머신러닝학회(ICML) 2024'에서 지난 7월 발표됐다. (논문명 : One Size Fits All for Semantic Shifts: Adaptive Prompt Tuning for Continual Learning) 한편, 이 기술은 과학기술정보통신부 재원으로 정보통신기획평가원의 지원을 받아 사람중심인공지능핵심원천기술개발사업 AI학습능력개선기술개발 과제로 개발한 연구성과 결과물(2022-0-00157, 강건하고 공정하며 확장 가능한 데이터 중심의 연속 학습)이다.
2024.08.06
조회수 4297
<<
첫번째페이지
<
이전 페이지
1
2
3
4
5
6
>
다음 페이지
>>
마지막 페이지 6