AI•추론 워크로드 성능 강화하고 AI 가속화 포트폴리오 확대 DCBBS 아키텍처를 통해 개발 기간 및 시장 출시 기간 단축 전 세대 대비 AI 연산 성능 최대 4배, 추론 성능 최대 35배 향상 AI/ML, HPC, 클라우드, 스토리지 및 5G/엣지를 위한 토탈 IT 솔루션의 글로벌 리더 슈퍼마이크로컴퓨터(Super Micro Computer, Inc.(SMCI), 이하 슈퍼마이크로)가 AMD 인스팅트 MI355X GPU 탑재 10U 공냉식 서버를 출시하며 AMD 인스팅트(Instinct) MI350 시리즈 GPU 기반 제품군을 확장했다. 새로운 솔루션은 AMD 인스팅트 MI355X GPU의 고성능을 공냉식 냉각 환경에서 구현하고자 하는 기업을 위해 설계되었으며, 탁월한 성능, 확장성, 전력 효율성을 제공한다. 빅 말얄라(Vik Malyala) 슈퍼마이크로 테크놀로지&AI부문 수석부사장은 "슈퍼마이크로는 AI 및 HPC 분야에서 고성능 솔루션 제공 경험이 가장 풍부한 업계 선도 기업"이라며 "슈퍼마이크로의 DCBBS(Data Center Building Block Solutions)는 검증된 데이터센터 솔루션을 시장에 공급하는 과정에서 AMD 솔루션
LG유플러스가 고객센터 전화 상담 품질을 업그레이드하기 위해 대규모언어모델(LLM) 기반 상담사 코칭 설루션 ‘AI Auto QA’를 개발했다고 20일 밝혔다. AI Auto QA는 LG유플러스 상담사의 전화 상담 품질을 검수하고 피드백을 제공하는 AI 코칭 프로그램이다. 상담이 끝나면 AI가 대화를 즉시 검수해 피드백을 제공한다. 기존에는 월 평균 150만건에 달하는 전체 상담 콜을 검수하는 데 한계가 있어 일부만 사람이 품질을 검수했다. 이로 인해 평가자 간 편차로 인한 공정성 문제가 발생하거나 정확한 상담품질 측정에 어려움이 있었다. 코칭 피드백도 최대 1주가량 걸려 상담품질 개선이 늦어졌다. 고객도 상담사에 따라 상담 품질의 편차를 겪었다. LG유플러스는 이러한 문제를 해결하기 위해 AI Auto QA를 고객센터 전화상담에 적용했다. 상담사는 상담 후 사물존칭, 공감 표현 등에 대한 피드백을 바로 받는다. 예를 들어 “5G 요금제가 있으십니다”라고 말하면 AI Auto QA가 “5G 요금제가 있습니다”라고 피드백한다. 상담사는 자신이 잘못 표현한 내용이 무엇이었는지 바로 파악해 상담 능력을 개선하게 된다. 교육을 맡은 상담코치 또한 기존의 반복적 평가
글로벌 체외진단(IVD) 솔루션 공급업체 상하이 케후아 바이오엔지니어링(Shanghai Kehua Bio-engineering Co., Ltd., KHB)이 세계적 의료 산업 전시회인 MEDICA 2025에서 최신 소형 화학발광 플랫폼 Polaris V150 자동 화학발광 면역분석기를 선보였다. 올해 KHB 부스의 핵심 전시 제품인 Polaris V150은 자동화 진단 분야에서 이룬 지속적인 혁신을 보여준다. 중소 규모 실험실은 물론 대형 병원과 외부 독립 검사기관의 STAT 및 응급 검사를 지원하도록 설계된 Polaris V150은 효율성과 정밀성, 사용 편의성을 하나의 탁상형 장비에 집약했다. 0.36m²의 설치 공간에 내장형 터치스크린과 컴팩트한 설계로 외부 장치 없이도 실험실에서 강력한 면역분석 기능을 제공한다. 작은 설치 공간과 효율적인 워크플로 0.36m²의 좁은 설치 면적에도 Polaris V150은 시간당 150건의 검사를 처리해 제한된 환경에서도 실험실이 효율적으로 운영될 수 있도록 한다. 시료•시약•반응 컵을 연속으로 로딩할 수 있으며, STAT 기능을 통해 긴급 시료를 우선적으로 처리해 신속한 임상 의사 결정을 돕는다. 또한 40개의 시료
AI 에이전트 기반의 품질공학 플랫폼 분야를 선도하는 람다테스트(LambdaTest)가 이번에 처음 발간된 '2025년 가트너 AI 증강 소프트웨어 테스트 도구 부문 매직 쿼드런트(2025 Gartner® Magic Quadrant™ for AI-Augmented Software Testing Tools)'에서 챌린저(Challenger)로 선정되었다. 개발 프로세스에 AI 에이전트를 활용하는 기업이 늘고 있는 가운데, 대화의 정확도와 의도 인식부터 어조의 일관성과 복잡한 추론에 이르기까지 모두 검증할 수 있는 람다테스트의 최신 A2A(Agent-to-Agent) 테스트 플랫폼이 기업의 AI 에이전트 테스트 및 검증 방식을 재정립하고 있다. AI 애플리케이션이 날로 정교해지고 있기 때문에 기존의 테스트 방식으로는 AI 애플리케이션의 역동적인 특성을 감당하기 힘들다. 그런데 람다테스트의 혁신적인 솔루션은 이러한 중대한 간극을 메운다. 다양한 혁신을 토대로 구축된 람다테스트의 AI 에이전트 기반 테스트 클라우드는 지능형 자동화와 조율을 통해 품질공학 팀의 전체 테스트 시간을 단축하는 데 이상적인 환경을 지원한다. 품질공학 팀은 AI 기반의 테스트 스크립트 작성,
AI 콘텐츠 생성 플랫폼 '캐럿'의 운영사 패러닷(대표 장진욱)이 기업 전용 서비스 '캐럿 비즈니스'가 누적 고객사 100곳을 돌파하며 빠른 성장세를 보이고 있다고 20일 밝혔다. 캐럿은 영상•이미지•음악 등 멀티미디어 콘텐츠를 하나의 플랫폼에서 생성할 수 있는 AI 에이전트 서비스이다. 별도의 디자인 툴이나 편집 프로그램 없이 AI와의 대화만으로 전문가 수준의 콘텐츠를 제작할 수 있어, 콘텐츠 제작 시간과 비용을 대폭 절감할 수 있다는 평가를 받고 있다. 현재 LG유플러스, 메리츠화재, CBS 등 주요 기업을 비롯해 패션•뷰티 커머스, 출판, 교육 등 다양한 업종에서 캐럿을 도입했다. 특히 부산광역시 등 지방자치단체에서도 정책 홍보 및 대민 소통 콘텐츠 제작에 활용하며 공공 분야로의 확산이 두드러지고 있다. 캐럿 비즈니스는 ▲전담 매니저 및 강사의 AI 전환(AX) 교육을 통해 AI 활용 경험이 없는 기업도 손쉽게 전문가급 콘텐츠를 제작할 수 있도록 지원한다. 특히 캐럿 비즈니스 도입 시 챗GPT, 미드저니, 클링AI 등 주요 AI 모델을 개별 구독하는 것 대비 최대 75% 이상의 비용 절감이 가능하다. 장진욱 패러닷 대표는 "캐럿은 누구나 손쉽게 고품질
SC25에서 AI 스토리지 기업 웨카(WEKA)는 기존의 성능•비용 한계를 넘어서는 차세대 WEKApod™ 어플라이언스를 공개했다. 새롭게 선보인 WEKApod Prime은 혼합 플래시 구성에 데이터를 지능적으로 배치해 가격 대비 성능을 65% 끌어올리면서 속도 저하 없이 비용 효율을 획기적으로 향상시켰다. WEKApod Nitro는 최신 하드웨어를 적용해 단위 공간당 성능을 두 배로 확장함으로써 조직의 AI 및 고성능컴퓨팅(HPC) 혁신을 가속하고 GPU 활용도를 극대화하며 더 많은 워크로드를 처리할 수 있도록 지원한다. 또한 고밀도 설계는 성능을 유지하면서 대규모 객체 스토리지 환경과 AI 데이터 레이크 구축에도 효과적으로 활용할 수 있다. WEKApod 어플라이언스는 대규모 AI 가속화를 위해 설계된 세계 유일의 스토리지 시스템인 WEKA의 NeuralMesh™를 가장 쉽고 빠르게 도입하고 확장할 수 있는 방식이다. WEKApod는 플러그 앤 플레이 환경과 개선된 설정 유틸리티를 갖춘 검증된 구성으로 제공돼 NeuralMesh가 제공하는 소프트웨어 기반의 유연한 구성•확장성을 그대로 활용할 수 있다. 기업은 최소 8대의 서버로 시작해 필요에 따라 수백
미국 소비자기술협회(Consumer Technology Association•CTA)®는 밥 스턴펠스(Bob Sternfels) 맥킨지 앤드 컴퍼니(McKinsey & Company) 글로벌 매니징 파트너와 헤만트 타네자(Hemant Taneja) 제너럴 카탈리스트(General Catalyst) CEO가 기업가이자 엔젤 투자자이며 올인(All-In) 팟캐스트의 공동 진행자인 제이슨 칼카니스(Jason Calcanis)와 함께 2026년 CES® 기조연설에 참여한다고 발표했다. 세계에서 가장 영향력 있는 비즈니스 팟캐스트를 생방송 녹화하는 형식으로 진행되는 이번 기조연설에서 이 세 명의 날카로운 비즈니스 전문가들은 실질적인 인사이트를 제공하며, 인공지능(AI)이 글로벌 전략, 투자, 혁신을 어떻게 재정의하고 있는지 탐구할 것이다. 킨지 파브리지오(Kinsey Fabrizio) CTA 사장은 "이번 기조연설은 아이디어, 영향력, 혁신이 결합된 2026년 CES의 최고 순간"이라며 이렇게 덧붙였다. "맥킨지와 제너럴 카탈리스트의 리더들과 함께 '올인' 팟캐스트 생방송 녹화를 진행하면서 이 순간의 열기를 담아낼 것이다. AI는 단순히 산업을 재편하는 데 그
세계 최대 슈퍼컴퓨팅 콘퍼런스 'SC25'에서 AI 스토리지 기업인 웨카(WEKA)가 오늘 NeuralMesh™에 탑재된 증강 메모리 그리드(Augmented Memory Grid™)의 상용화를 발표했다. 이 혁신적인 메모리 확장 기술은 AI 혁신의 발목을 잡는 근본적인 병목 현상인 GPU 메모리 문제를 해결한다. 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI)와 주요 AI 클라우드 플랫폼에서 검증된 이 기술은 GPU 메모리 용량을 기가바이트(GB)에서 페타바이트(PB) 수준으로 1000배 확장하고, 첫 토큰 생성 시간(Time-to-First-Token)을 최대 20배 단축한다. 이를 통해 장문 맥락 추론과 에이전틱 AI(agentic AI) 워크플로를 대폭 간소화하며, 기존에 확장성이 낮았던 추론 작업의 효율성을 극적으로 향상시킨다. 혁신에서 상용화로: AI 메모리 벽 해결 2025년 엔비디아 GTC(NVIDIA GTC)에서 처음 소개된 이후, 증강 메모리 그리드는 OCI를 시작으로 주요 AI 클라우드 환경에서 강화•테스트•검증 작업을 거쳤다. 초기 검증 결과와 마찬가지로, AI 시스템이 코딩 코파일럿부터 연구