이 기사에서는 사용자가 AWS Glue Data Catalog에서 크롤러의 스케줄러를 시작하는 방법을 알아봅니다.
예시
AWS Glue 데이터 카탈로그에서 사용 가능한 크롤러의 스케줄러를 시작합니다.
문제 설명: Python에서 boto3 라이브러리를 사용하여 크롤러의 스케줄러를 시작합니다.
이 문제를 해결하기 위한 접근 방식/알고리즘
-
1단계: boto3 가져오기 및 보토코어 예외를 처리하는 예외.
-
2단계: 크롤러 이름 이 함수의 필수 매개변수입니다.
-
3단계: boto3 lib를 사용하여 AWS 세션 생성 . region_name 기본 프로필에 언급되어 있습니다. 언급되지 않은 경우 region_name을 명시적으로 전달합니다. 세션을 만드는 동안.
-
4단계: 글루용 AWS 클라이언트 생성 .
-
5단계: 이제 start_crawler_schedule 기능을 사용하세요. 매개변수 crawler_name 전달 CrawlerName으로.
-
6단계: 응답 메타데이터를 반환하고 크롤러의 일정 상태를 SCHEDULED로 설정합니다. 크롤러의 상태가 실행 중이거나 일정 상태가 이미 SCHEDULED인 경우 예외가 발생합니다. - SchedulerRunningException .
-
7단계: 크롤러의 스케줄러를 시작하는 동안 문제가 발생한 경우 일반 예외를 처리합니다.
예시 코드
다음 코드는 크롤러의 스케줄러를 시작합니다 -
import boto3 from botocore.exceptions import ClientError def start_scheduler_of_a_crawler(crawler_name) session = boto3.session.Session() glue_client = session.client('glue') try: response = glue_client.start_crawler_schedule(CrawlerName=crawler_name) return response except ClientError as e: raise Exception("boto3 client error in start_scheduler_of_a_crawler: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in start_scheduler_of_a_crawler: " + e.__str__()) print(start_scheduler_of_a_crawler("Data Dimension"))
출력
{'ResponseMetadata': {'RequestId': '73e50130-*****************8e', 'HTTPStatusCode': 200, 'HTTPHeaders': {'date': 'Sun, 28 Mar 2021 07:26:55 GMT', 'content-type': 'application/x-amz-json-1.1', 'content-length': '2', 'connection': 'keep-alive', 'x-amzn-requestid': '73e50130-***************8e'}, 'RetryAttempts': 0}}