이 기사에서는 사용자가 AWS Glue Data Catalog에서 크롤러를 시작하는 방법을 알아봅니다.
예시
문제 설명: boto3 사용 크롤러를 시작하기 위한 Python 라이브러리
이 문제를 해결하기 위한 접근 방식/알고리즘
-
1단계: boto3 가져오기 및 보토코어 예외 처리를 위한 예외
-
2단계: 크롤러 이름 이 함수의 매개변수입니다.
-
3단계: boto3 lib를 사용하여 AWS 세션 생성 . region_name 기본 프로필에 언급되어 있습니다. 언급되지 않은 경우 region_name을 명시적으로 전달합니다. 세션을 만드는 동안.
-
4단계: 글루용 AWS 클라이언트 생성 .
-
5단계: 이제 start_crawler를 사용하세요. 함수를 만들고 crawler_name 매개변수를 전달합니다. 이름으로.
-
6단계: 응답 메타데이터를 반환하고 일정에 관계없이 크롤러를 시작합니다. 크롤러 상태가 실행 중이면 CrawlerRunningException이 발생합니다. .
-
7단계: 크롤러를 시작하는 동안 문제가 발생한 경우 일반 예외를 처리합니다.
예시 코드
다음 코드는 AWS Glue 데이터 카탈로그에서 크롤러를 시작합니다. −
import boto3 from botocore.exceptions import ClientError def start_a_crawler(crawler_name) session = boto3.session.Session() glue_client = session.client('glue') try: response = glue_client.start_crawler(Name=crawler_name) return response except ClientError as e: raise Exception("boto3 client error in start_a_crawler: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in start_a_crawler: " + e.__str__()) #1st time start the crawler print(start_a_crawler("Data Dimension")) #2nd time run, before crawler completes the operation print(start_a_crawler("Data Dimension"))
출력
#1st time start the crawler {'ResponseMetadata': {'RequestId': '73e50130-*****************8e', 'HTTPStatusCode': 200, 'HTTPHeaders': {'date': 'Sun, 28 Mar 2021 07:26:55 GMT', 'content-type': 'application/x-amz-json-1.1', 'content-length': '2', 'connection': 'keep-alive', 'x-amzn-requestid': '73e50130-***************8e'}, 'RetryAttempts': 0}} #2nd time run, before crawler completes the operation Exception: boto3 client error in start_a_crawler: An error occurred (CrawlerRunningException) when calling the StartCrawler operation: Crawler with name Data Dimension has already started