컨텐츠 바로가기


board


현재 위치

  1. 게시판
  2. 뉴스/이벤트

뉴스/이벤트

뉴스와 이벤트입니다.

AI로 검색 개선하는 벡터 검색의 종류와 활용도
제목 AI로 검색 개선하는 벡터 검색의 종류와 활용도
작성자 운영자 (ip:)
  • 작성일 2021-10-07 01:54:08
  • 추천 추천 하기
  • 조회수 10
  • 평점 0점

AI로 검색 개선하는 벡터 검색의 종류와 활용도

Martin Heller | InfoWorld
스포티파이처럼 좋아하는 것과 비슷한 노래를 찾아주는 음악 서비스를 구현한다고 가정해 보자. 어떻게 해야 할까? 각 노래를 글자 수 기준으로 분류하고 이런 ‘벡터’를 인덱스 데이터베이스에 저장한 후 데이터베이스를 검색하여 자신이 좋아하는 것과 ‘비슷한’ 노래 설명 벡터를 찾을 수 있다. 즉, 벡터 유사도 검색을 수행할 수 있다.
 
ⓒ Pixabay License
 

벡터 유사도 검색이란?

일반적으로 벡터 유사도 검색에는 노래, 이미지, 텍스트 등 원본 객체의 주요 특성을 수집하는 벡터 임베딩(Embedding), 벡터들 사이의 ‘근접성’을 나타내는 거리 메트릭스, 검색 알고리즘, 벡터를 보관하고 인덱스를 통해 벡터 검색을 지원하는 데이터베이스의 4가지 요소가 존재한다.
 

벡터 임베딩이란?

벡터 임베딩은 기본적으로 머신 러닝 및 딥 러닝의 맥락에서 이해한 변수 벡터이다. 변수 가공을 수동으로 수행하거나 모델의 결과값을 사용하여 정의할 수 있다.

예를 들어 텍스트 문자열을 신경망, 단어 동시 발생 메트릭에 대한 차원 수 감소, 확률론적 모델, 설명 가능한 지식 베이스 방법, 단어가 나타나는 문맥 측면에서 명시적인 표현을 사용하여 단어 임베딩(변수 벡터)으로 전환할 수 있다. 단어 임베딩을 훈련하고 사용하는 보편적인 모델로는 word2vec(구글), GloVe(스탠포드), ELMo (앨런 인스티튜트/워싱턴대학교), BERT(구글), fastText(페이스북) 등이 있다.

CNN(Convolutional Neural Network) 모델 또는 트랜스포머 모델의 결과값을 수집하여 이미지가 임베드되는 경우가 많다. 이런 모델은 픽셀 패치를 변수로 롤링하여(‘감기’)하고 풀링 레이어(Pooling Layer)를 통해 다운 샘플링 하여 변수 벡터의 차원 수를 자동으로 줄인다.

제품 추천은 제품 설명의 단어 및 문구의 임베딩, 제품 이미지의 임베딩 또는 둘 모두에 기초할 수 있다. 오디오 임베딩은 (스펙트럼을 제공하는) 오디오의 푸리에 변환, 작곡가, 장르, 예술가, 템포, 리듬, 소리 크기에 대한 설명, 스펙트럼과 키워드에 기초할 수도 있다. 이 분야는 빠르게 발전하고 있기 때문에 다양한 영역에 적용할 수 있는 새로운 임베딩 기법이 생겨날 것이다.
 

거리 메트릭스란?

사람은 일반적으로 2차원 또는 3차원으로 직선의 측면에서 거리를 생각한다. 그러나 벡터 임베딩은 10차원 이상인 경우가 많고 1,000차원 이상인 경우도 드물지 않다. 일반 거리 공식은 헤르만 민코프스키의 이름을 따서 명명했다. 민코프스키는 아인슈타인의 특수 상대성 원리의 시간을 4번째 차원으로 하여 4차원 시공간으로 구성한 것으로 유명하다. 민코프스키 메트릭(또는 거리)은 유클리드 거리(직접 직선)와 맨하탄 거리(도시 구획을 걷는 등 들쭉날쭉한 선)의 일반화이다.

L2 거리 또는 L2 법칙으로도 알려져 있는 유클리드 거리는 클러스터 알고리즘에 사용되는 가장 보편적인 메트릭이다. 또 다른 메트릭인 코사인 유사도는 텍스트 처리에 자주 사용되며, 임베딩 벡터의 방향이 중요하지만 그 사이의 거리는 중요하지 않다.
 

벡터 유사도 검색을 수행할 수 있는 알고리즘은 무엇인가?

일반적으로 KNN(K-Nearest Neighbor) 알고리즘은 벡터 검색 문제에 대한 좋은 답을 제공할 가능성이 있다. 문제는 컴퓨팅 비용(프로세서와 메모리 사용량)이 높다는 점이다.

KNN의 대안으로는 ANN(Approximate Nearest Neighbors) 검색 알고리즘과 ANN의 변종인 SPTAG(Space Partition Tree And Graph)가 있다. SPTAG는 마이크로소프트 리서치의 빙이 오픈소스로 공개했다. 페이스북이 오픈소스에 공개한 유사한 ANN의 변종은 페이스북 AI 유사도 검색(파이스, Faiss)이다. 프로덕트 양자화기(Product Quantizer)와 IndexIVFPQ 인덱스는 파이스와 일부 다른 ANN 변종의 속도를 높이는 데 도움이 된다. 앞서 언급했듯이 벡터 데이터베이스는 벡터 인덱스를 구축하여 검색 속도를 개선하는 경우가 많다.

파이스는 10억 벡터 데이터베이스에서 쿼리 문서와 유사한 멀티미디어 문서를 검색하기 위해 개발되었다. 평가를 위해 개발자들은 10억 개의 이미지로 구성된 콜렉션인 Deep1B를 사용했다. 파이스로 벡터 전처리, 데이터베이스 파티셔닝, 벡터 인코딩(제품 양자화)을 사용자 정의하여 데이터세트를 가용 RAM에 맞출 수 있다. 파이스는 CPU와 GPU에 별도로 구현된다. CPU에서는 2ms 안에 10억 개의 이미지 데이터세트에서 40% 리콜 점수를 달성할 수 있다(코어당 초당 200개 쿼리). 파스칼(Pascal) 클래스 엔비디아 GPU에서는 CPU보다 20배 빠른 속도로 검색한다.

SPTAG도 유사한 목적으로 개발되었지만 조금 다른 방법을 사용한다. 빙은 전통적인 키워드 일치와 비교하여 결과를 개선하기 위해 검색 엔진이 인덱싱한 1,500억 개 이상의 데이터 조각을 벡터화했다. 벡터화된 데이터로는 단일 단어, 문자, 웹 페이지 정보, 풀 쿼리, 기타 미디어 등이 있다. SPTAG 개발자는 쿼리 지향적 통합형 인접 그래프 검색을 사용하여 마이크로소프트 리서치 아시아에서 ANN 이전 검색을 기반으로 개발했으며 kd 트리(인덱싱 구축에 유리)와 k 평균 트리(검색 정확도에 유리) 알고리즘을 구현했다. 검색은 여러 개의 무작위 시드로 시작한 후 트리와 그래프에서 반복적으로 계속한다.

파인콘(Pinecone)은 생산 애플리케이션에 벡터 검색을 쉽게 추가할 수 있는 API를 갖춘 완전 관리형 벡터 데이터베이스이다. 파인콘의 유사도 검색 서비스는 분산되어 있고 서버가 없으며 일정하고 일관되며 공유되고 여러 노드에 복제된다. 파인콘은 수십억 개의 벡터 임베딩을 처리할 수 있으며 파이썬(Python) 또는 자바(Java) 애플리케이션과 노트북에서 유사도 검색을 실행할 수 있다.

파인콘은 50ms 미만의 지연 속도와 초당 수십억 개의 항목 및 수천 개의 쿼리를 주장하고 있다. 강화된 AWS 인프라를 기반으로 구동한다. 데이터는 독립된 컨테이너에 저장되고 전송 중 암호화된다.
 
빙 ANN 벡터 검색 아키텍처 ⓒ MICROSOFT RESEARCH
 

벡터 검색의 적용 사례

페이스북이 시연한 이미지 검색과 마이크로소프트 빙이 구현한 의미론적 텍스트 검색 외에 벡터 유사도 검색은 여러 사용 사례에 적용할 수 있다. 그 예로 제품 추천, FAQ 답변, 개인화, 오디오 검색, 중복 제거, IT 이벤트 로그의 위협 감지 등을 들 수 있다. editor@itworld.co.kr 


첨부파일
비밀번호 삭제하려면 비밀번호를 입력하세요.

목록

삭제 수정 답변

댓글 수정

비밀번호

수정 취소

/ byte