예:크롤러의 세부정보 가져오기, crawler_for_s3_file_ 일.
이 문제를 해결하기 위한 접근 방식/알고리즘
1단계 − boto3 및 botocore 예외를 가져와 예외를 처리합니다.
2단계 - crawler_name은 필수 매개변수입니다. 사용자가 한 번에 여러 크롤러 이름을 보내 세부 정보를 가져올 수 있는 목록입니다.
3단계 − boto3 라이브러리를 사용하여 AWS 세션을 생성합니다. region_name 기본 프로필에 언급되어 있습니다. 언급되지 않은 경우 region_name을 명시적으로 전달합니다. 세션을 만드는 동안.
4단계 − 글루용 AWS 클라이언트를 생성합니다.
5단계 − 이제 batch_get_crawlers를 사용하세요. 함수 및 crawler_names 전달 .
6단계 − 크롤러의 메타데이터를 반환합니다.
7단계 − 작업을 확인하는 동안 문제가 발생한 경우 일반 예외를 처리합니다.
예시
크롤러의 세부 정보를 가져오려면 다음 코드를 사용하십시오 -
import boto3 from botocore.exceptions import ClientError def get_crawler_details(crawler_names:list) session = boto3.session.Session() glue_client = session.client('glue') try: crawler_details = glue_client.batch_get_crawlers(CrawlerNames= crawler_names) return crawler_details except ClientError as e: raise Exception( "boto3 client error in get_crawler_details: " + e.__str__()) except Exception as e: raise Exception( "Unexpected error in get_crawler_details: " + e.__str__()) print(get_crawler_details("[crawler_for_s3_file_job]"))