엔비디아, RTX PC에서 넥사 AI '하이퍼링크' 로컬 에이전트 가속 지원

등록일 2025년11월13일 09시30분 트위터로 보내기


 

엔비디아가 넥사 AI(NEXA AI)와 협력해 로컬 AI 에이전트 하이퍼링크(Hyperlink)를 엔비디아(NVIDIA) RTX AI PC에서 공식 지원한다고 밝혔다.

 

거대 언어 모델(large language model, LLM) 기반 AI 어시스턴트는 강력한 생산성 도구다. 그러나 적절한 맥락과 정보가 없으면 적절하고 관련성 있는 답변을 제공하는 데 어려움을 겪을 수 있다. 대부분의 LLM 기반 채팅 애플리케이션은 사용자가 일부 파일을 제공해 맥락을 보충할 수 있도록 하지만, 사용자 PC에 저장된 슬라이드, 노트, PDF, 사진 등 다양한 정보에는 접근하지 못한다.

 

넥사 AI의 하이퍼링크는 이러한 문제를 해결하는 로컬 AI 에이전트다. 하이퍼링크는 수천 개의 파일을 빠르게 인덱싱하고, 사용자의 질문 의도를 이해하며, 맥락에 맞는 맞춤형 인사이트를 제공한다.

 

새롭게 공개된 버전에는 엔비디아 RTX AI PC를 위한 가속 기능을 포함하며, 검색 증강 생성(retrieval-augmented generation, RAG) 인덱싱 속도가 3배 향상됐다. 예를 들어, 이전에 인덱싱에만 약 15분이 걸리던 1GB 용량의 폴더를 이제는 불과 4~5분 만에 검색 준비를 마칠 수 있다. 또한 LLM 추론 속도도 2배 빨라져 사용자 쿼리에 대한 응답 시간이 더욱 단축됐다.

 

엔비디아 RTX AI PC의 하이퍼링크는 최대 인덱싱 속도 3배, LLM 추론 속도 2배 향상을 제공한다. 테스트 데이터세트를 기반으로 RTX 5090에서 벤치마크한 결과이며, 인덱싱은 전체 인덱싱 시간 기준, 추론 속도는 토큰 처리량 기준으로 측정됐다.

 

로컬 데이터를 인스턴트 인텔리전스로 전환

하이퍼링크는 생성형 AI를 활용해 수천 개의 파일 속에서 정확한 정보를 검색하며, 단순한 키워드 매칭이 아닌 사용자 쿼리의 의도와 맥락을 이해한다.

 

이를 위해 작은 폴더부터 컴퓨터 내 모든 파일까지 사용자가 지정한 모든 로컬 파일에 검색 가능한 인덱스로 변환한다. 사용자는 자연어로 원하는 내용을 설명하기만 하면 문서, 슬라이드, PDF, 이미지 등 다양한 파일에서 관련 정보를 찾을 수 있다.

 

예를 들어, 사용자가 ‘두 공상과학 소설의 주제를 비교하는 독후감 작성’에 필요한 정보를 요청하면, 하이퍼링크는 파일명이 단순히 ‘문학_과제_최종본.docx(Lit_Homework_Final.docx)’으로 되어있더라도 해당 주제와 관련된 정보를 찾아낼 수 있다.

 

검색 기능과 RTX 가속 LLM의 추론 능력을 결합한 하이퍼링크는 사용자의 파일에서 얻은 인사이트를 바탕으로 질문에 답변한다. 다양한 출처의 아이디어를 연결하고 문서 간 관계를 식별해 명확한 출처 표기와 함께 논리적인 답변을 생성한다.

 

모든 사용자 데이터는 기기 내에만 저장되며 비공개로 유지된다. 즉, 개인 파일이 컴퓨터 외부로 전송되지 않아 민감한 정보가 클라우드로 유출될 걱정을 하지 않아도 된다. 이를 통해 사용자는 통제권과 안정감을 유지하면서도 강력한 AI의 혜택을 누릴 수 있다.

 

하이퍼링크는 이미 전문가, 학생, 크리에이터 사이에서 다음과 같은 작업에 활용되고 있다.

 

- 회의 준비: 메모와 회의록 전반의 핵심 논의 사항 요약.

- 보고서 분석: 업계 보고서 전반의 핵심 데이터를 인용해 근거 있는 답변 생성

- 콘텐츠 제작: 수년간 저장된 노트와 초안을 바탕으로 글쓰기, 영상 아이디어 수집

- 효율적인 학습: 시험 공부 중 강의 노트, 슬라이드, 튜토리얼 동시 검색으로 핵심 개념 복습

- 영수증 정리: 스캔한 문서를 분류하고 경비 보고서 자동 작성

- 빠른 디버깅: 코드 내 문서와 주석을 검색해 오류, 버전 충돌 해결

 

여기에서 하이퍼링크 앱을 다운로드해 RTX PC에서 AI 검색을 경험할 수 있다.

관련뉴스 - 관련뉴스가 없습니다.
 

가장 많이 본 뉴스

취재기사 기획/특집 게임정보

화제의동영상