
우리대학 공과대학(학장 김종환)이 세계 최초로 개최하는 인공지능 축구대회인 ‘AI 월드컵 2017’의 결선 대회가 12월 1일 오후 1시 30분부터 KI빌딩 1층 퓨전홀에서 열린다. ‘AI 월드컵 2017’ 결선 대회는 ▲AI 축구 ▲AI 경기해설 ▲AI 기자 등 3개 종목으로 나눠 진행된다.
Q-Learning 등 AI 기술을 기반으로 각 팀당 5대의 로봇선수가 사람의 조작 없이 상대팀 골대에 골을 넣어 득점하는 AI 축구는 내달 1일 열리는 본선 경기에서 4강 토너먼트를 통해 우승팀과 준우승 팀을 가른다. 결승전에 오르지 못한 나머지 2개 팀은 따로 3, 4위전을 치르지 않기 때문에 공동 3위로 처리된다.
이밖에 인공지능 축구 경기영상을 분석하고 해설하는 AI 경기해설과 인공지능 축구 경기결과를 기사로 작성하는 AI 기자 종목은 전문 평가단이 지정해 준 예선경기 영상들을 대상으로 참가팀의 경기해설과 기사작성 능력을 평가한 전문 평가단의 점수를 종합해 우승팀을 뽑아 1일 시상할 예정이다.
우리대학은 29일 세계 최초로 치러지는 이번 ‘AI 월드컵 2017’ 대회운영을 위해 지난 11월 초까지 참가신청서 접수를 받은 결과, ▲AI 축구 ▲AI 경기해설 ▲AI 기자 등 3개 종목에 걸쳐 국내 대학·연구기관·기업 등에서 모두 26개 팀이 대회참가를 신청했다고 밝혔다. 종목별로 신청 팀 수는 ▲AI 축구가 총 18개 팀으로 가장 많은데, 이 중 8개 팀이 우리대학 소속이다(KAIST+서울대 합동 1개 팀 포함). 이밖에 목포대에서 2개 팀을 비롯해 경북대·한양대·전북대·영남대·성균관대·경희대·계명대·모두의연구소에서 각 1개 팀씩 모두 10개 팀이 신청했다.
▲AI 경기해설에는 우리대학과 목포대·모두의연구소·얄리주식회사 등 4개 기관에서 각 1개 팀씩 모두 4개 팀이, 그리고 ▲AI 기자 종목에도 우리대학과 경북대·모두의연구소·목포대 등 총 4개 팀이 대회참가를 신청했다. 가장 많은 관심을 끌 것으로 예상되는 ▲AI 축구는 30일까지 치러지는 예선을 통과한 4개 팀이 1일 결승 토너먼트 방식으로 우승·준우승 팀과 공동 3위 팀을 가르는데 대회 조직위원회는 인공지능 기술 구현방법 발표평가를 시행한 후 경기성적과 발표평가를 합산해 최종 우승팀을 선정할 계획이다. 최종 우승팀에게는 상장과 1,000만원의 상금을, 준우승 팀에는 500만원의 상금이 각각 수여된다. 공동 3위를 차지한 2개 팀에는 각각 150만원의 상금이 지급된다.
▲AI 경기해설은 해설의 내용에 오류가 없는지 확인하는 • 해설의 정확성, 중요한 이벤트를 놓치지 않고 잘 포함했는지를 측정하는 • 해설의 충실성, 그리고 곧 골이 터질 것 같다거나 공격이 막힐 것 같다는 예측을 수행할 수 있는지를 확인하는 • 해설의 예측력을 위주로 심사한다. 전반적으로 해설이 재미있고 자연스러운지 확인하는 • 해설의 유창성 또한 중점적으로 고려하는데 우승팀에게는 200만원의 상금이 주어진다.
우승팀에 상금 100만원을 수여하는 ▲AI 기자는 구조적으로 얼마나 잘 짜여 진 기사인지를 따지는 • 기사의 구조성과 또 얼마나 쉽고 즐겁게 읽히는 기사인지를 판단하는 • 읽기 가독성 위주로 평가한다. 이와 함께 기사내용의 사실관계를 평가하는 • 진실성을 포함해 간단한 통계자료 외에 깊이 있는 정보를 얼마나 다루고 있는지에 관한 • 정보성, 그리고 인간이 작성한 기사와 얼마나 유사한지를 평가하는 • 인간 기자와의 유사성도 핵심 심사항목이다.
대회조직위원장인 김종환 공과대학장은 “앞으로 대전시 등 여러 기관들과의 협력과 후원을 통해 해외의 대학 및 관련 기업에게도 문호를 적극 개방하고, 이번 국내대회를 개최한 경험을 바탕으로 내년 7월에는 AI 월드컵 행사를 국제대회로 대회규모를 대폭 확대해서 치를 계획”이라고 밝혔다.
한편 ‘AI 월드컵 2017’은 최근 세계적으로 관심이 높아지고 있는 4차 산업혁명을 국가성장 엔진창출의 기회로 보고, 인공지능 관련기술 활용 및 연구 개발에 대한 대학(원)생과 연구원은 물론 범국민적인 관심을 높이고 또 이를 적극 홍보하기 위해 우리대학이 세계 최초로 개최하는 행사다.
우리 대학 인공지능반도체대학원은 4월 8일(수) 오전 대전 오노마 호텔에서 '제5회 한국인공지능시스템포럼(KAISF)' 조찬 강연회를 성공적으로 개최하였다. 이번 강연회는 인공지능이 물리 세계와 직접 맞닿으며 산업 현장에 빠르게 스며드는 'Physical AI' 시대를 주제로, 총 63명의 산학 전문가가 참석한 가운데 활발한 논의가 이루어졌다. 초청 강연은 ㈜NC AI 이연수 대표이사와 김민재 CTO가 '물리 내재화 기반의 차세대 피지컬 AI와 전주기 통합 플랫폼 개발 현황'을 주제로 공동 진행하였다. 강연에서는 AI 기술의 발전으로 물리 법칙을 스스로 이해하는 피지컬 AI가 로봇 산업의 판도를 바꾸고 있는 현황을 소개하며, 다음 세 가지 핵심 내용을 중심으로 전개되었다. ▲질량·마찰·탄성 등 역학적 관계를 내재화한 WFM(월드 파운데이션 모델) 핵심 기술 및 로봇 파운데이션 모델(RFM) 기반 작업 지능 최적화 ▲Sim-to-Real 간극을 최소화
2026-04-10우리 몸의 단백질은 스위치처럼 작동한다. 약물이 단백질에 결합하면 결합 부위 구조가 변하고, 그 변화가 단백질 전체로 전달돼 기능이 켜지거나 꺼진다. 구글 딥마인드의 알파폴드3는 약물-단백질 결합 여부와 결합 부위의 3차원 구조를 예측하는 데 성공했지만, 약물이 결합한 뒤 단백질 내부에서 어떻게 신호를 전달하고 단백질 전체 구조를 바꿔서 실제로 단백질의 기능을 활성화하거나 억제하는지까지는 예측하지 못했다. 우리 대학 연구진이 약물이 ‘붙는지’가 아니라 ‘실제로 작동하는지’까지 예측하는 AI를 개발했다. 우리 대학은 바이오및뇌공학과 이관수 교수 연구팀이 대표적인 신약 표적인 G-단백질 결합 수용체(GPCR)에 대해, 후보 물질이 단순히 결합하는지를 넘어 실제로 단백질을 활성화하는지까지 예측하는 인공지능 모델 ‘GPCRact(지피씨알액트)’를 개발했다고 8일 밝혔다. GPCR(G-Protein Coupled Rece
2026-03-09우리 대학 기계공학과 윤국진 교수 연구팀이 세계적인 컴퓨터 비전 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)에서 주저자로 총 10편의 논문을 채택시키며, 연구팀의 압도적인 학술적 역량을 다시금 증명했다. CVPR은 인공지능과 시각 지능 분야에서 가장 큰 영향력을 가진 국제 학술 대회로, 1983년 시작된 이래 매년 엄격한 심사를 거쳐 우수 논문을 선정한다. 올해 CVPR 2026에는 전 세계에서 총 16,092편의 논문이 제출되었으며, 그중 4,090편이 채택되어 약 25.42%의 낮은 채택률을 기록하였다. 단일 연구실에서 주저자/교신저자로 10편의 논문이 동시에 채택되는 것은 국제적으로 매우 독보적인 성과로 평가받는다. 윤국진 교수 연구팀은 인간 수준의 시각 지능 구현을 목표로 폭넓은 연구를 수행하고 있다. 이번에 채택된 논문들은 이벤트 카메라 기반 기술, 자율주행 인
2026-03-06“슬럼(Slum, 빈곤지역)이 어디에 있는지조차 모르는 도시들” 한국 연구진이 위성사진만으로 슬럼 지역을 스스로 찾아내는 인공지능(AI)을 개발했다. 사람이 미리 위치를 표시해 주지 않아도 새로운 도시에서 자동으로 적응해 정확도를 높이는 기술로, 데이터가 부족한 개발도상국의 도시정책 수립과 공공 자원 배분 방식을 근본적으로 바꿀 수 있을 것으로 기대된다. 우리 대학은 전산학부 차미영 교수와 기술경영학부 김지희 교수 공동 연구팀이 전남대학교(총장 이근배) 지리학과 양재석 교수와 함께한 학제 간 융합 연구를 통해 위성사진 기반 범용 슬럼 탐지 AI 기술을 개발했다고 6일 밝혔다. 이번 연구는 세계 최고 권위의 인공지능 학술대회 ‘국제인공지능학회(AAAI) 2026’에서 ‘사회적 임팩트 AI(AI for Social Impact)’ 부문 최우수논문상(Best Paper Award)을 수상했다. 해당 부문에 제출된 6
2026-03-06만약 영화 다크나잇을 보면서 화면 속 조커를 바라보는 것이 아니라, 내가 조커가 되어 고담시를 직접 바라본다면 어떨까. 관객의 시선이 아닌 등장인물의 눈으로 세상을 경험하는 영상 기술이 현실이 되고 있다. 우리 대학 연구진이 일반 영상만으로도 사용자가 직접 보는 시점의 영상을 생성하는 새로운 인공지능 모델을 개발했다. 으리 대학은 김재철AI대학원 주재걸 석좌교수 연구팀이 관찰자 시점의 영상만을 활용해 영상 속 인물이 실제로 보고 있었을 장면을 정밀하게 생성하는 인공지능 모델 ‘에고엑스(EgoX)’를 개발했다고 23일 밝혔다. 최근 증강현실(AR), 가상현실(VR), AI 로봇 기술이 빠르게 발전하면서 ‘내가 직접 보는 장면’을 그대로 담은 1인칭 시점 영상(Egocentric video)의 중요성이 커지고 있다. 그러나 고품질의 1인칭 영상을 얻기 위해서는 사용자가 고가의 액션캠이나 스마트 글래스를 직접 착용해야 하는 한계가 있었다.
2026-02-23