들어가며

지난글 (https://beoks.tistory.com/86)에선 API를 이용해서 AWS Lex와 대화할 수 있는 기능을 구현해보았습니다. 이번에는 발화 의도(Intent)를 업로드할 수 있는 API를 개발해보려고 합니다. 지난 글과 상당히 유사한 부분이 많기 때문에 이전 글을 많이 인용할 예정입니다.

1. 역할 생성

AWS Lex API 를 관리하기 위한 역할과 정책을 정의합니다. 여러 서비스를 이용하는 경우 각 서비스 마다 목적에 따라서 권한을 나누어 관리하는 것이 좋습니다. 권한을 정의할 정책과 정책을 적용한 역할을 만들어봅시다.

  1. IAM Console(https://console.aws.amazon.com/iam/) 에 루트 사용자로 로그인합니다.
  2. 엑세스 관리 > 역할 부분에서 역할 만들기를 선택합니다.

  1. 엔티티 선택에서 Lambda를 선택하고 다음을 클릭합니다.

  1. 권한 추가 단계는 생략합니다.
  2. 역할 생성이후 별도의 인라인 권한을 명시할 것이기 때문입니다.
  3. 역할 이름을 명시한 후 역할 생성 버튼을 클릭합니다.
  4. IAM 콘솔 > 엑세스 관리 > 역할에서 생성했던 역할 이름을 검색합니다.
  5. 권한 추가 > 정책 연결을 클릭합니다. (인라인으로 별도의 정책을 선언해 연결 할 수도 있습니다.)

여기에서 필요한 권한을 정책으로 등록할 수 있습니다. 지금은 편의를 위해 이미 존재하는 AmazonLexFullAccess 권한을 추가하겠습니다. 권한 정책 검색에서 해당 권한을 추가하고 체크 후 정책연결을 클릭해주세요.
 

2. 람다 함수 생성

AWS Lex 와 통신하기 위한 람다 함수를 생성합시다. 여기에서 이전에 정의한 역할을 사용합니다.

  1. AWS Lambda Console에 접속해서 함수 생성을 클릭합니다.
  2. 함수 이름 등 기본정보를 입력합니다. 여기서는 NodeJS를 사용해보겠습니다.
  3. 기본 실행 역할 변경에서 이전에 생성했던 역할을 선택합니다.

3. 람다 함수 코드 업로드

이제 Lex를 다루기 위한 람다 함수 코드를 작성해보겠습니다. Lex V2 Models SDK (https://docs.aws.amazon.com/AWSJavaScriptSDK/v3/latest/clients/client-lex-models-v2/index.html) 에서 Lex V2 를 관리하기 위한 API 를 확인할 수 있습니다. 

1. npm init을 통해 새로운 NodeJS 프로젝트를 생성합니다.

2. npm install @aws-sdk/client-lex-models-v2 를 입력해 필요한 패키지를 설치합니다.

3. 이 패키지를 이용해 질문을하면 간단하게 초기 응답을 실행하는 의도를 생성하는 코드를 index.js에 작성합니다. 이 때, 의도의 이름(intentName)은 영어 또는 숫자를 사용해야만합니다. 저는 별도의 아이디를 생성하고 이를 질문과 응답과 함께 API에 전달한다고 가정하고 아래와 같이 코드를 작성했습니다. ( API 요청 형식이 궁금하다면 아래 5.테스트를 참고해주세요)

const { LexModelsV2Client, CreateIntentCommand } = require("@aws-sdk/client-lex-models-v2");

exports.handler = async (event, context, callback) => {
	try {
		const client = new LexModelsV2Client({ region: 'us-east-1' });
		const qnAList=event
		let response
		for(let i=0;i<qnAList.length;i++){
			const question=qnAList[i].question
			const answer=qnAList[i].answer
			const dataId=(qnAList[i].id).toString()
			const initialResponseSetting ={
				initialResponse:{
					messageGroups:[
						{
							message:{
								plainTextMessage: {
									value:answer
								}
							}
						}
					]
				}
			}
			const input = {
				'botId':process.env.BOT_NAME,
				'botVersion': process.env.BOT_VERSION,
				'intentName': dataId,
				'sampleUtterances':[{
					utterance : question
				}],
				'initialResponseSetting':initialResponseSetting,
				'localeId' : "ko_KR"
			};
			const command = new CreateIntentCommand(input);
			response = await client.send(command);
		}
		callback(null,response.messages)
	} catch(e) {
		console.log(e);
		callback(e);
	}
};

4. 코드를 작성했다면, 람다에 업로드하기 위해 압축을 진행합니다.

zip -r project.zip . #For Mac user

4. 람다 함수 환경 변수 설정

코드를 보면 일부 파라미터가 process.env 로 정의된 것을 알 수 있습니다. 이는 환경변수를 참조한다는 뜻입니다. 따라서 이에 맞는 환경변수를 입력해야 합니다.

  1. 선택한 람다 함수에서 → 구성 → 환경변수에 진입합니다.

  1. BOT_NAME 은 연결하려는 봇의 아이디를 의미합니다. Lex Console 에서 봇을 선택하면 봇 ID를 확인할 수 있습니다.

3. BOT_VERSION은 봇의 특정 버전을 의미합니다. 의도를 업로드하고자 하는 봇의 버전을 선택합니다. 초안 버전의 경우 DRAFT를 입력하면 됩니다.

5. 테스트

이제 전체적인 람다 함수에서 테스트를 해볼 수 있습니다.

  1. 람다 함수 테스트 → 테스트 이벤트에서 새로운 이벤트를 생성합니다.실행 결과를 확인해 테스트가 잘 수행되는것을 확인할 수 있습니다.

6. API Gateway 연결

이제 람다 함수를 API Gateway 와 연결해 HTTPS 로 접근할 수 있도록 합시다.

  1. API Gateway 콘솔에서 REST API 생성을 클릭합니다.
  2. 리소스 → 작업 → 메서드 생성 → POST Method 를 생성합니다.
  3. 이전에 생성한 람다 함수와 연결합니다.
  4. 설정이 완료되면 메서드를 테스트 할 수 있습니다.

7. API 배포

API를 등록하고 테스트를 완료했다면 외부에서 접속하는 것을 허락하기 위해 배포를 진행할 수 있습니다.

  1. 리소스 → 작업 → 배포를 선택합니다.

  1. 적절한 스테이지를 설정합니다. 스테이지는 dev, test, QA, prod 등의 배포 단계를 의미합니다.)

  1. 스테이지 편집기에서 외부에서 API를 호출할 수 있는 URL을 흭득할 수 있습니다.

스테이지에 표시된 URL을 통해 요청을 수행하면 발화 의도를 업데이트하는 API 완성입니다!

들어가며

오늘은 회사에서 새로운 프로젝트를 시작하기 위해 리액트 프로젝트를 자동으로 AWS에 배포하는 과정을 진행했고 마주쳤던 이슈에 대해서 정리해보고자 합니다. 이 포스트는 아래와 같이 단계별로 구성되어 있습니다. 

1. S3로 배포하기

2. CloudFront로 배포 강화하기 - 예정

3. Github Action으로 배포 자동화하기 - 예정

 

기존 배포 과정과 문제점

기존에는 AWS 서비스에 대해서 잘 몰라 Nginx를 이용해서 정적 파일을 제공하도록 설계하고 이를 EC2에 올려 배포했습니다. 여기서 문제점은 단순히 정적 파일을 제공하는데 EC2라는 자원은 상당히 비싸다는 것입니다. 웹 페이지의 경우 특정 시간에는 접속이 낮은 경우가 많은데 EC2로 배포를 진행하게 될 경우 시간당 과금이 발생하기 때문에 불필요한 과금이 지속되기 때문입니다. 또한 단순히 정적 파일을 제공하는데 연산에 필요한 자원들은 거의 필요가 없기에 EC2의 자원낭비가 심했습니다.

 

문제 정의

해결방법을 모색하기 위해 지금 프로젝트에 필요한 요소들을 우선순위 기준으로 정의했습니다.

1. 정적 파일을 HTTP 기반으로 제공가능한 기능

2. 부하 분산 기능

3. TLS를 적용 기능

4. API 요청의 경우 리버스 프록시 기능

 

솔루션 탐색

AWS에서 제공하는 서비스 중에 위를 만족하는 서비스는 다음과 같았습니다.

1. 정적 파일을 HTTP 기반으로 제공 가능한 기능 : S3

2. 부하 분산 기능 : CloudFront

3. TLS를 적용 기능 : CloudFront

4. API 요청의 경우 리버스 프록시 기능 : CloudFront

탐색 결과, 운이 좋게 대부분의 요구사항이 CloudFront에서 제공하는 것을 알게 되었습니다. 

 

S3에 프로젝트 배포

1. S3 버킷 생성

S3 콘솔로 접속 후, 왼쪽 메뉴에서 버킷을 선택하고 버킷 만들기를 클릭합니다.

버킷 이름은 원하는 서비스 이름을 입력합시다. 여기서는 react-test-project라고 입력하겠습니다.

객체 소유권의 경우 ACL 활성화를 선택합니다. 

모든 퍼블릭 액세스 차단을 해제하고 확인을 클릭합니다. 우리는 정적 웹 사이트 호스팅에 이를 사용할 것이기 때문에 퍼블릭 액세스를 허용해야 합니다. 나머지 옵션 설정은 생략하고 버킷 만들기를 클릭합니다.

2. 파일 업로드

버킷을 생성했다면 해당 버킷에 들어가봅시다. 비어있는 객체 칸을 처음으로 확인할 수 있습니다. 여기에 배포할 파일을 업로드할 수 있습니다. AWS CLI를 이용하면 쉽게 업로드할 수 있습니다. 콘솔을 이용해도 되지만, 우리는 개발자니까 한번 시도해봅시다. 초기 설정은 어려울 수 있어도 이 시간이 지나면 편안함이 찾아옵니다. 우선 아래 링크를 통해 각자 환경에 맞게 AWS CLI를 설치합니다.

https://docs.aws.amazon.com/ko_kr/cli/latest/userguide/getting-started-install.html

 

최신 버전의 AWS CLI 설치 또는 업데이트 - AWS Command Line Interface

이전 버전에서 업데이트하는 경우 unzip 명령을 실행하면 기존 파일을 덮어쓸지 묻는 메시지가 표시됩니다. 스크립트 자동화와 같은 경우에 이러한 프롬프트를 건너뛰려면 unzip에 대한 -u 업데이

docs.aws.amazon.com

 

이제 IAM을 이용해서 배포 권한만 가지고 있는 사용자 계정을 만들어 보겠습니다. 루트 계정을 사용해도 배포를 할 수 는 있지만, 루트 계정의 인증 정보가 다른 곳에 유출되면 굉장히 위험합니다. 따라서 목적에 따라 최소한의 권한을 가진 계정을 생성해서 사용하는 것이 좋습니다. AWS IAM Console에 접속해봅시다. 콘솔 -> 사용자 -> 사용자 추가를 통해서 새로운 사용자를 만들 수 있습니다.

리액트 프로젝트를 배포할 TestReactDeployer라는 이름을 입력하고 CLI를 사용므로 자격 증명 유형은 액세스 키를 선택합니다. 

다음으로 사용자에게 줄 권한을 선택해봅시다. 권한은 AmazonS3FullAccess 에는 배포에 필요한 권한이 모두 들어있습니다. 하지만 필요 없는 권한도 있습니다. 세부적으로 정말 필요한 권한만 설정하면 좋겠지만 이 포스트의 목적과는 거리가 멀어 생략하고 AmazonS3 FullAccess를 사용하겠습니다. (힌트를 드리자면 세부적인 권한을 선택하기 위해선 IAM 정책을 활용할 수 있습니다. )

마지막으로 액세스 유형, 권한 을 확인하고 사용자를 생성합니다.

 생성한 사용자의 엑세스 키와 비밀 액세스 키를 확인할 수 있습니다. AWS CLI에서 인증할 때 필요한 정보이니 CSV를 소중히 다운로드해줍시다. 

 

이제 AWS CLI를 이용해 인증을 진행해봅시다.

프로파일을 설정하면 여러 자격증명 및 설정을 따로 관리할 수 있습니다. 위와 같이 커맨드를 입력하고 CSV에 포함된 키를 각각 입력합니다. 나머지 옵션도 위와 같이 입력해줍니다.

이제 업로드할 정적 파일로 이동합시다. 저는 Vite를 사용하고 있기 때문에 빌드를 하면 dist 디렉터리에 정적 파일이 생성됩니다. 일반적으로 build 디렉토리에 정적파일이 생성되니 상황에 따라 적절하게 이동하면 됩니다.

정적 파일 디렉터리로 이동하고 위와 같은 커맨드를 입력합니다. s3://[버킷 주소]를 입력하고 사용할 자격증명은 이전에 저장한 프로파일로 설정합니다. 이렇게 하면 한 줄의 커맨드로 아래와 같이 한 번에 필요한 파일들을 배포할 수 있습니다. 

3. 정적 웹 사이트 호스팅

자 이제 이 버킷을 정적 웹 사이트 호스팅용으로 변경해봅시다. 

선택한 버킷에서 속성을 선택합니다.

스크롤을 내리면 맨 아래 속성에서 정적 웹 사이트 호스팅을 확인해볼 수 있습니다. 편집을 누르고 정적 웹 사이트 호스팅을 활성화합니다. 

위와 같이 호스팅 유형을 설정하고 인덱스 문서를 버킷에 업로드한 파일 중 기본 페이지 파일 이름으로 설정합니다. 대부분 index.html 입니다:) 이제 변경사항을 저장합니다.

다시 속성을 확인하면 위와 같이 엔드포인트 주소를 확인할 수 있습니다. 저 링크로 접속해서 원하는 프로젝트에 접속이 가능하다면 성공입니다! 

다음

위 설정만으로 웹 사이트를 배포할 수 있습니다. 하지만 조금 아쉽습니다. HTTP가 아니라는 점, 접속자 수가 급증하면 부하 분산이 불가능하다는 점, 여러 지역에서 접속할 경우 거리마다 정적 파일이 제공되는 시간이 다르다는 점 그리고 API 서버와 연결하기 어렵다는 점 등 실제 서비스에 적용하기에는 부족한 점이 많습니다. 이 부족한 점을 CloudFront로 해결해보겠습니다. 

 

'Web' 카테고리의 다른 글

CSS - Element가 배치되는 방법들  (0) 2020.01.18
Servlet - Hellow World 출력하기(intellij)  (0) 2020.01.18
Web - Event & EventListener  (0) 2020.01.18
Ajax 통신 정의, 필요성, 예제  (0) 2020.01.18
JSP(Java Server Page) - 정의, 문법  (0) 2020.01.18

AWS Lex를 Facebook, Slack 그리고 Twilio 같이 연결서비스를 제공하는 메시지 앱 이외의 서비스에 연결하고 싶은 경우 별도의 HTTP API 서버를 구현해야합니다. 여기에서는 그 과정에 대해서 서술하겠습니다.

1. 아키텍쳐

  1. 사용자는 메시징 앱을 통해서 텍스트를 입력합니다.
  2. 메시징 앱은 텍스트내용을 HTTP API 요청에 담아 AWS API Gateway에 전달합니다.
  3. AWS API Gateway는 요청 인증을 확인하고 이를 AWS Lambda에 전달합니다.
  4. AWS Lambda는 비즈니스 로직을 수행하고 Amazon Lex의 PostText API를 호출하여 통신을 수행합니다.
  5. 위 데이터 전달 과정을 역으로 수행하여 응답 결과를 사용자에게 전달합니다.

여기서는 MakeAppointment 예제 Lex 봇을 이미 생성했다고 가정하고 진행합니다.

2. 역할 생성

AWS Lex API 를 관리하기 위한 역할과 정책을 정의합니다. 여러 서비스를 이용하는 경우 각 서비스 마다 목적에 따라서 권한을 나누어 관리하는 것이 좋습니다. 권한을 정의할 정책과 정책을 적용한 역할을 만들어봅시다.

  1. IAM Console(https://console.aws.amazon.com/iam/) 에 루트 사용자로 로그인합니다.
  2. 엑세스 관리 > 역할 부분에서 역할 만들기를 선택합니다.

  1. 엔티티 선택에서 Lambda를 선택하고 다음을 클릭합니다.

  1. 권한 추가 단계는 생략합니다.
  2. 역할 생성이후 별도의 인라인 권한을 명시할 것이기 때문입니다.
  3. 역할 이름을 명시한 후 역할 생성 버튼을 클릭합니다.
  4. IAM 콘솔 > 엑세스 관리 > 역할에서 생성했던 역할 이름을 검색합니다.
  5. 권한 추가 > 정책 연결을 클릭합니다. (인라인으로 별도의 정책을 선언해 연결 할 수도 있습니다.)

  1. 여기에서 필요한 권한을 정책으로 등록할 수 있습니다. 지금은 편의를 위해 이미 존재하는 AmazonLexFullAccess 권한을 추가하겠습니다. 권한 정책 검색에서 해당 권한을 추가하고 체크 후 정책연결을 클릭해주세요.

3. 람다 함수 생성

AWS Lex 와 통신하기 위한 람다 함수를 생성합시다. 여기에서 이전에 정의한 역할을 사용합니다.

  1. AWS Lambda Console에 접속해서 함수 생성을 클릭합니다.
  2. 함수 이름 등 기본정보를 입력합니다. 여기서는 NodeJS를 사용해보겠습니다.
  3. 기본 실행 역할 변경에서 이전에 생성했던 역할을 선택합니다.

  1. 함수 생성을 클릭합니다.

4. 람다 함수 코드 업로드

이제 람다 함수에 사용할 API 코드를 작성해보겠습니다. 이 과정은 사용자 입력과 Lex 응답을 서로 전달하는 간단한 샘플 프로젝트로 진행됩니다.

  1. 샘플 프로젝트를 클론합니다.
    1. git clone https://github.com/BEOKS/AWS-Lex-Lambda-API-Server.git
  2. 프로젝트의 패키지를 설치합니다.
    1. cd AWS-Lex-Lambda-API-Server; npm install;
  3. 프로젝트를 압축합니다.
    1. zip -r project.zip . #For Mac user
  4. 이전에 생성한 람다 함수에서 코드 > 에서 업로드 > .zip 파일을 선택해 업로드합니다.
 

5. 람다 함수 환경 변수 설정

코드를 보면 일부 파라미터가 process.env 로 정의된 것을 알 수 있습니다. 이는 환경변수를 참조한다는 뜻입니다. 따라서 이에 맞는 환경변수를 입력해야 합니다.

  1. 선택한 람다 함수에서 → 구성 → 환경변수에 진입합니다.

  1. BOT_NAME 은 연결하려는 봇의 아이디를 의미합니다. Lex Console 에서 봇을 선택하면 봇 ID를 확인할 수 있습니다.

3. BOT_ALIAS은 특정 버전을 연결하는 봇의 별칭을 의미합니다. Lex Console → 배포 → 별칭에서 특정 별칭을 생성하거나 선택해 확인할 수 있습니다.

 

4. BOT_LOCALE 은 지원 언어를 의미합니다. https://docs.aws.amazon.com/lexv2/latest/dg/how-languages.html 에서 지원하는 언어 코드를 찾아 입력할 수 있습니다. 현재는 봇을 한국어로 설정했으므로 ko_KR을 입력합니다.

6. 테스트

이제 전체적인 람다 함수에서 테스트를 해볼 수 있습니다.

  1. 람다 함수 테스트 → 테스트 이벤트에서 새로운 이벤트를 생성합니다.

  1. 실행 결과를 확인해 테스트가 잘 수행되는것을 확인할 수 있습니다.

7. API Gateway 연결

이제 람다 함수를 API Gateway 와 연결해 HTTPS 로 접근할 수 있도록 합시다.

  1. API Gateway 콘솔에서 REST API 생성을 클릭합니다.
  2. 리소스 → 작업 → 메서드 생성 → POST Method 를 생성합니다.
  3. 이전에 생성한 람다 함수와 연결합니다.
  4. 설정이 완료되면 메서드를 테스트 할 수 있습니다.

8. API 배포

API를 등록하고 테스트를 완료했다면 외부에서 접속하는 것을 허락하기 위해 배포를 진행할 수 있습니다.

  1. 리소스 → 작업 → 배포를 선택합니다.

  1. 적절한 스테이지를 설정합니다. 스테이지는 dev, test, QA, prod 등의 배포 단계를 의미합니다.)

  1. 스테이지 편집기에서 외부에서 API를 호출할 수 있는 URL을 흭득할 수 있습니다.

8. 최종 API 테스트

Postman Agent 를 이용해서 API를 아래와 같이 호출하면 응답이 잘 전달되는 것을 확인 할 수 있습니다.

 

관련 문서

  1. https://aws.amazon.com/ko/blogs/machine-learning/integrate-your-amazon-lex-bot-with-any-messaging-service/
  2. https://docs.aws.amazon.com/AWSJavaScriptSDK/v3/latest/clients/client-lex-runtime-service/index.html
  3. https://docs.aws.amazon.com/AWSJavaScriptSDK/v3/latest/clients/client-lex-runtime-v2/index.html
  4. https://docs.aws.amazon.com/lexv2/latest/dg/how-languages.html

Table of contents

1. 들어가며

이번 포스트에서는 Spring Data Elasticsearch 를 가장 간단하게 사용하는 방법을 먼저 다루고
각 방법을 세부적으로 수정하는 방법과 Spring Data Elasticsearch 의 동작과정에 대해서 다루어 보겠습니다.

❕이 포스트는 Spring Data Elasticsearch 4.4.5 Reference Documentation 을 기준으로 작성되었습니다.

2. 간단한 사용방법

2.1 Elasticsearch 실행

Spring Data Elasticsearch 를 구성하기 전 연결할 Elasticsearch 를 실행하도록합니다.
버전 정보에 따르면 Spring Data Elasticsearch 4.4.5 버전을 위해선 Elasticsearch 7.17.6 버전을 설치해야합니다.
이미 설치되고 실행하고 있는 경우 이 과정을 생략해도 좋습니다.
Elasticsearch 는 설치 가이드를 통해서 여러 OS에 맞게 설치할 수 있습니다.
여기서는 도커를 이용해서 간단하게 실행해보겠습니다.

  1. Pull Docker Image
  2. docker pull docker.elastic.co/elasticsearch/elasticsearch:7.17.6
  3. Create Elasticsearch Container
  4. docker run --name elastic --net elastic -p 9200:9200 -p 9300:9300 -e discovery.type=single-node -it docker.elastic.co/elasticsearch/elasticsearch:7.17.6

패스워드나 HTTPS 를 위한 인증서 설정 등 다양한 설정이 추가적으로 가능하지만, 여기서는 최소한의 사용방법을 익히는 것이 목표이므로
생략하도록 하겠습니다.

2.2 Spring Data Elasticsearch 종속성 추가

접속할 Elasticsearch 를 실행시켰으니 Spring Boot 프로젝트에서 Spring Data Elasticsearch 종속성을 추가합니다.

//...
dependencies {
    implementation("org.springframework.boot:spring-boot-starter")
    implementation("org.jetbrains.kotlin:kotlin-reflect")
    implementation("org.jetbrains.kotlin:kotlin-stdlib-jdk8")
    implementation("org.springframework.data:spring-data-elasticsearch:4.4.5")
    implementation("org.springframework.boot:spring-boot-starter-web")
    testImplementation("org.springframework.boot:spring-boot-starter-test")
}
//...

2.3 Spring Data Elasticsearch 연결 설정

스프링 프로젝트가 Elasticsearch 와 연결하기 위한 구성을 설정합니다. 여기에서 기본적인 호스트와 포트 비밀번호 그리고 SSL 설정 등 다양한 설정이 가능합니다.

package com.example.springdataelasticsearchdemo

import org.elasticsearch.client.RestHighLevelClient
import org.springframework.context.annotation.Bean
import org.springframework.context.annotation.Configuration
import org.springframework.data.elasticsearch.client.ClientConfiguration
import org.springframework.data.elasticsearch.client.RestClients
import org.springframework.data.elasticsearch.config.AbstractElasticsearchConfiguration
import org.springframework.data.elasticsearch.repository.config.EnableElasticsearchRepositories


@Configuration
@EnableElasticsearchRepositories(basePackages = ["com.example.springdataelasticsearchdemo.Student"])
class ElasticSearchConfig : AbstractElasticsearchConfiguration() {
    @Bean
    override fun elasticsearchClient(): RestHighLevelClient {
        val clientConfiguration: ClientConfiguration = ClientConfiguration.builder()
            .connectedTo("localhost:9200")
            .build()
        return RestClients.create(clientConfiguration).rest()
    }
}

2.3 테스트 클래스 생성

테스트를 위해서 간단한 학생 정보 클래스를 생성합니다.

package Student

import org.springframework.data.annotation.Id
import org.springframework.data.annotation.ReadOnlyProperty
import org.springframework.data.elasticsearch.annotations.Document
import java.time.LocalDate 

data class Person(
    val name:String="foo",
    val age: Int=10,
    val birthDate: LocalDate= LocalDate.now(),
)
@Document(indexName = "Student")
data class Student(
    @Id @ReadOnlyProperty
    val id:String,
    val personalInformation: Person=Person(),
    val department: String="Computer Science",
    val grade: Int=3
)

Document의 ID는 Elasticsearch 의 _id 와 연동됩니다.

2.4 테스트 레포지토리 생성

마지막으로 Spring Data Repository 인터페이스를 생성합니다. 다른 Spring Data 를 사용해보셨다면 아시겠지만 이 인터페이스를 참고하여 기본적인 쿼리를 요청할 수 있습니다.
여기까지가 Spring Data Elasticsearch 를 사용하기 위한 기본적인 구성입니다. 이 다음에는 Service 와 Controller 를 활용해서 학생 정보를 저장하는 HTTP API 를 만들어보겠습니다.

package com.example.springdataelasticsearchdemo.Student

import org.springframework.data.elasticsearch.repository.ElasticsearchRepository
import org.springframework.stereotype.Repository

@Repository
interface StudentRepository : ElasticsearchRepository<Student,String>{
}

2.5 Service 코드 생성

작성한 StudentRepository 를 이용해서 학생정보를 입력받아 저장하는 서비스 코드를 생성했습니다.

package com.example.springdataelasticsearchdemo.Student

import org.springframework.stereotype.Service

@Service
class StudentService(
    private val studentRepository: StudentRepository
) {
    fun save(student: Student){
        studentRepository.save(student)
    }
}

2.6 Controller 코드 생성

서비스 코드를 이용해서 학생 정보를 저장하는 POST API 를 생성했습니다.

package com.example.springdataelasticsearchdemo.Student

import org.springframework.http.ResponseEntity
import org.springframework.stereotype.Controller
import org.springframework.web.bind.annotation.PostMapping
import org.springframework.web.bind.annotation.RequestBody
import org.springframework.web.bind.annotation.RequestMapping

@Controller
@RequestMapping("/api/student")
class StudentController(
    private val studentService: StudentService
) {
    @PostMapping
    fun save(@RequestBody student: Student): ResponseEntity<String> {
        studentService.save(student)
        return ResponseEntity.ok("")
    }
}

2.7 HTTP API 테스트

이제 Postman 을 이용해서 테스트를 진행해보겠습니다. 아래와 같은 테스트 JSON 을 입력해서 POST 메서드로 요청을 전송합니다.

id의 경우 Elasticsearch 가 자동 생성하도록 하는 것이 좋습니다. 그러나 여기서는 조회 테스트를 편하게 하기 위해서 임의의 값을 입력했습니다.

 

전송을 성공했다면, Elasticsearch 에 직접 조회 API 를 전송해서 데이터를 확인해봅시다.

데이터가 잘 저장된 것을 확인할 수 있습니다. 다만 birthDate 의 경우 전송한 값과 다르게 저장되는데 이는 LocalDate 클래스를 사용하고 별다른 형식을 설정하지 않았기 때문입니다.
형식을 설정하는 방법은 아래에서 살펴보겠습니다.

2.8 마무리

지금까지 Spring Data Elasticsearch 를 가장 간단하게 사용하는 방법에 대해서 알아보았습니다. 이 과정에서 Elasticsearch 와 연결을 설정할 떄 비밀번호나 SSL 을 설정하는 법,
파일 저장 형식을 변경하는 법 등 자세한 세부사항과 동작과정에 대해서 궁금한 점이 생겼으리라 믿습니다. 이 방법들은 이 후의 포스트에서 더욱 자세히 알아보도록 하겠습니다.

3. 세부사항과 동작과정

세부사항과 동작과정은 하나의 포스트에 담기에 매우 방대하다고 생각하여 여러 포스트를 시리즈로 업로드할 예정입니다.

  1. Spring Data Elasticsearch Configuration 설정 - 작성중
  2. Spring Data Elasticsearch SSL/TLS 설정 - 예정
  3. Spring Data Elasticsearch Date 형식 설정 방법 - 예정
  4. Spring Data Elasticsearch Repository 의 동작 과정 이해하기 - 예정
  5. Custom Spring Data Elasticsearch Repository 생성하기 - 예정

Reference

  1. https://docs.spring.io/spring-data/elasticsearch/docs/current/reference/html/
  2. https://www.elastic.co/guide/en/elasticsearch/reference/current/setup.html

+ Recent posts