일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- qiskit #
- ibm #qiskit #quantum # quantumcomputer #quantumcomputing #quantummachine #quantumengineering #quantumbit #qbit
- qiskit #qiskitHackerthon
- qiskit #QuantumComputer #QuantumMachine #양자컴퓨터 #양자 #키스킷
- Today
- Total
목록AI ML DL/머신러닝-딥러닝 (3)
인일의 공부 블로그
포스팅 개요아래 공식 블로그를 요약하고 튜토리얼을 진행했습니다.https://www.elastic.co/kr/blog/5-technical-components-image-similarity-search 이미지 유사성 검색의 5가지 기술 구성 요소 | Elastic.co이미지 유사성 검색을 자세히 살펴보고, 유사성 검색 애플리케이션을 구현하는 데 수반되는 5가지 구성 요소를 이해하고, 성능에 중요한 기술적 고려 사항을 숙지합니다....www.elastic.cohttps://www.elastic.co/kr/blog/how-to-deploy-nlp-text-embeddings-and-vector-search NLP를 배포하는 방법: 텍스트 임베딩 및 벡터 검색이 블로그에서는 감정 분석을 예제 작업으로 삼아, ..
포스팅 개요https://wikidocs.net/22660 Word2Vec의 학습 방법에는 CBOW와 Skip-Gram 두가지가 있음. 목차1. 1번2. 2번3. 3번 🎈 1. 희소 표현- 원 핫 벡터 인코딩을 표현- 단어의 인덱스 값만 1으로 하고 나머지는 0으로 표현 🎈 2. 분산 표현- 분포 가설(distributional hypothesis)을 가정하고 만듦- 비슷한 문맥에서 등장한 단어들은 비슷한 의미를 가진다는 뜻 강아지의 인덱스가 4 라는 예시1. 원핫벡터Ex) 강아지 = [ 0 0 0 0 1 0 0 0 0 0 0 0 ... 중략 ... 0]2. 분산 표현Ex) 강아지 = [0.2 0.3 0.5 0.7 0.2 ... 중략 ... 0.2]- 단어의 의미를 여러 차원에 분산하여 표현-..
1. 기울기 소실(Vanishing Gradient)이란? 역전파에서 경사하강법 진행시, 기울기 값이 사라지는 문제 출력층에 가까운 값에서 입력층으로 가까운 값으로 진행되면서 기울기가 작아지며 소실한다. 더보기 input layer에 입력값이, output layer에 출력값이, 중간 부분에서 계산을 함. 간단히 말하면 입력값에 중요한 만큼(가중치)를 곱해서 특정 값(임계치)를 넘으면 출력값에 옳은 답 이라는 것을 출력함. 이때, input layer -> hidden layer -> output layer를 가는 순전파도 있지만 output layer 쪽에서 input layer로 가는 역전파도 있음. 역전파는 데이터에대한 가중치를 정정할때 사용됨. 이때 곱해지는 활성화 함수에 대해 예시를 들겠음.