Computer >> 컴퓨터 >  >> 프로그램 작성 >> Python

크롤러의 세부 정보를 얻기 위해 Python에서 Boto3 라이브러리를 사용하는 방법은 무엇입니까?

<시간/>

예:크롤러의 세부정보 가져오기, crawler_for_s3_file_ 일.

이 문제를 해결하기 위한 접근 방식/알고리즘

1단계 − boto3 및 botocore 예외를 가져와 예외를 처리합니다.

2단계 - crawler_name은 필수 매개변수입니다. 사용자가 한 번에 여러 크롤러 이름을 보내 세부 정보를 가져올 수 있는 목록입니다.

3단계 − boto3 라이브러리를 사용하여 AWS 세션을 생성합니다. region_name 기본 프로필에 언급되어 있습니다. 언급되지 않은 경우 region_name을 명시적으로 전달합니다. 세션을 만드는 동안.

4단계 − 글루용 AWS 클라이언트를 생성합니다.

5단계 − 이제 batch_get_crawlers를 사용하세요. 함수 및 crawler_names 전달 .

6단계 − 크롤러의 메타데이터를 반환합니다.

7단계 − 작업을 확인하는 동안 문제가 발생한 경우 일반 예외를 처리합니다.

예시

크롤러의 세부 정보를 가져오려면 다음 코드를 사용하십시오 -

import boto3
from botocore.exceptions import ClientError

def get_crawler_details(crawler_names:list)
   session = boto3.session.Session()
   glue_client = session.client('glue')
   try:
      crawler_details = glue_client.batch_get_crawlers(CrawlerNames= crawler_names)
      return crawler_details
   except ClientError as e:
      raise Exception( "boto3 client error in get_crawler_details: " + e.__str__())
   except Exception as e:
      raise Exception( "Unexpected error in get_crawler_details: " + e.__str__())

print(get_crawler_details("[crawler_for_s3_file_job]"))