애피어코리아
서울--()--글로벌 AI 서비스형 소프트웨어(SaaS) 기업 애피어(Appier)가 세계 최고 권위의 AI 학회인 신경정보처리시스템학회(Neural Information Processing Systems, 이하 NeurIPS)와 자연어처리방법론학회(Empirical Methods in Natural Language Processing, 이하 EMNLP)에 자사 AI 연구팀의 논문 3편이 모두 채택되는 쾌거를 이뤘다고 밝혔다. 이번 성과는 애피어의 뛰어난 AI 연구 역량, 특히 대규모 언어 모델(LLM) 개발 분야에서의 기술력을 입증하는 것으로, 첨단 기술 및 혁신에서 애피어의 리더십을 더욱 공고히 했다.
애피어, 세계 최고 권위 AI 학회 ‘NeurIPS’와 자연어처리방법론 학회 ‘EMNLP’에 제출한 논문 3편 모두 채택
애피어는 AI 혁신과 학술적 협력에 대한 지속적인 노력의 일환으로 기술적 역량을 더욱 강화하기 위해 지난 2월 전담 AI 연구팀을 신설했다. 세계적으로 인정받는 학술 포럼에서 연구 성과를 발표함으로써 애피어만의 넓은 전문성을 지속적으로 입증하고 있다. 특히 올해 NeurIPS와 EMNLP에 제출한 모든 논문이 채택된 소수의 아시아 기반 기업 중 하나로 이름을 올려 AI와 자연어 처리(NLP) 분야에서의 우수성과 리더십을 국제적으로 인정받았다.
이번 연구 결과는 광고, 개인화, 데이터 클라우드 SaaS 플랫폼 등 애피어의 전 제품군에 적용될 예정이다. 주요 적용 사례로는 △광고 크리에이티브 생성 및 성능 최적화 △놀리지 봇(Knowledge bots) △실시간 제품 추천 및 이커머스 고객 서비스 △초개인화 마케팅 솔루션 △고객 데이터 플랫폼(CDP)을 위한 자동 보고서 생성 △산업별 모델 최적화 등이 있다. 이러한 혁신은 AI를 측정 가능한 ROI (투자 대비 수익)로 전환해 고객의 실질적인 비즈니스 성장을 이끈다는 애피어의 미션을 뒷받침한다.
치한 위(Chih-Han Yu) 애피어 공동창립자 겸 CEO는 “AI는 애피어 DNA의 핵심으로, AI와 LLM 분야의 획기적인 연구와 새로운 영역에서의 무한한 잠재력을 탐구하는 원동력”이라며 “세 편의 논문이 모두 채택된 것은 애피어 AI 연구팀의 노력과 재능을 인정받은 결과며, 앞으로도 강력한 R&D 기반을 토대로 데이터 활용과 모델 최적화를 가속화해 새로운 비즈니스 가치와 기회를 창출하고, AI를 비즈니스 성공의 핵심으로 만들기 위해 노력하고 있다”고 밝혔다.
NeurIPS와 EMNLP는 전 세계 최고의 전문가들과 학자들이 참가하는 AI 및 NLP 분야에서 가장 권위 있는 학술 대회로 꼽힌다. ‘AI 올림픽’으로 불리는 NeurIPS는 1987년부터 매년 개최돼 왔으며, 신경망, 딥러닝, 통계 등 광범위한 주제를 다룬다. 올해는 1만5600개의 논문이 제출된 가운데 데이터셋 및 벤치마크(Datasets and Benchmarks) 트랙의 채택률은 약 25.3%에 불과했다. EMNLP는 1996년 설립된 NLP 분야의 주요 학회로, 기술적 혁신과 경험적 연구에 초점을 맞추고 있다. 올해 메인 트랙에는 6105편 이상의 논문이 제출돼 채택률 약 20.8%를 기록했으며, 산업 트랙의 채택률은 36.53%였다.
애피어는 AI 혁신을 선도하는 기업으로서 AI 기술을 개척하고 LLM 연구를 발전시키기 위해 지속적으로 투자하고 있다. AI가 끊임없이 진화함에 따라 애피어는 최고의 학계 전문가 및 업계 리더들과 협력해 혁신적인 기술을 탐구하고, 디지털 광고 및 마케팅 분야를 변화시킬 실용적이고 최첨단의 솔루션을 제공하는 데 전념하고 있다.
한편 애피어는 제품 혁신과 개발을 가속화하고 고객의 비즈니스 요구를 충족시키기 위해 연구 과학자, 엔지니어, 마케팅 기술 전문가를 적극 채용하고 있다. AI의 미래를 함께 만들어갈 재능 있는 인재들의 많은 관심과 지원을 기다리고 있다.
Appendix: 채택된 논문 소개
애피어의 첫 번째 논문 ‘StreamBench: 언어 에이전트의 지속적인 개선을 위한 벤치마킹(StreamBench: Towards Benchmarking Continuous Improvement of Language Agents)’이 권위 있는 NeurIPS 2024 학회의 데이터셋 및 벤치마크 트랙에 채택됐다. 이 논문은 입력-피드백 시퀀스를 통해 지속적으로 개선되는 LLM 에이전트를 평가하는 StreamBench를 소개한다. 대부분의 벤치마크가 LLM의 고유 능력에 초점을 맞추는 반면, StreamBench는 온라인 학습 환경을 시뮬레이션해 LLM이 실시간으로 피드백 스트림을 받고 성능을 최적화할 수 있게 한다. 이 연구는 간단하면서도 효과적인 벤치마킹 방법을 제안할 뿐만 아니라 성공적인 스트리밍 전략 구현에 필요한 주요 요소에 대한 종합적인 분석을 제공한다. 또한 효과적인 기준을 제시해 동적이고 실시간 시나리오에서 더욱 적응력 있는 AI 시스템 개발에 앞장선다.
두 번째 논문 ‘LLM의 사용자 지원 요청 능력 평가: 텍스트-SQL 생성 사례 연구(I Need Help! Evaluating LLM’s Ability to Ask for Users’ Support: A Case Study on Text-to-SQL Generation)’는 EMNLP 2024 학회의 메인 트랙에 채택됐다. 이 논문은 텍스트-SQL 생성 과정을 사례로 사용해 LLM이 성능을 개선하기 위해 사용자 지원을 능동적으로 요청하는 기능을 탐구한다. 애피어 AI 연구팀은 LLM 성능 향상과 추가 질문으로 인한 사용자 부담 간의 균형을 이해하고자 했다. 또한 LLM이 언제 사용자 지원이 필요한지 식별할 수 있는지, 그리고 다양한 수준의 가용 정보가 성능에 어떤 영향을 미치는지 조사했다. 실험 결과, 외부 피드백 없이는 많은 LLM이 지원이 필요한 시점을 인식하는 데 어려움을 겪는 것으로 나타났다. 논문의 결론에서는 외부 신호의 중요성을 강조하고, 지원 요청 전략 개선을 위한 향후 연구에 대한 인사이트를 제공한다.
애피어의 세 번째 논문 ‘자유롭게 말해도 될까요? 대규모 언어 모델(LLM) 성능에 대한 형식 제한 영향 연구(Let Me Speak Freely? A Study on the Impact of Format Restrictions on Performance of Large Language Models)’가 EMNLP 2024 학회의 산업 트랙에 채택됐다. 이 연구는 구조화된 생성(JSON이나 XML과 같은 표준화된 형식으로 내용 생성이 제한되는 경우)과 자유형식 생성의 효과를 비교 조사했다. 이는 이러한 제약이 대규모 언어 모델(LLM)의 성능, 특히 추론 능력과 도메인 지식 이해에 어떤 영향을 미치는지 평가하기 위한 것이다. 광범위한 평가를 통해 엄격한 형식 제한이 LLM의 추론 능력을 크게 저하시키며, 구조화된 콘텐츠와 정보 추출 사이의 상충 관계를 강조하는 흥미로운 결과를 발견했다.
애피어코리아 소개
애피어는 인공지능(AI)을 활용해 비즈니스 의사 결정을 강화하는 서비스형 소프트웨어(SaaS) 기업이다. AI 보편화라는 비전을 토대로 2012년에 설립한 애피어의 미션은 소프트웨어를 지능화해 AI를 ROI로 전환하는 것이다. 애피어는 현재 아시아-태평양, 유럽, 미국에 17개의 지사를 운영하고 있으며, 도쿄 증권 거래소(Tokyo Stock Exchange)에 상장됐다. 더 자세한 정보는 애피어코리아 공식 홈페이지에서 확인할 수 있다.
웹사이트:
https://www.appier.com/ko-kr/