Computer >> 컴퓨터 >  >> 프로그램 작성 >> Python

Boto3를 사용하여 AWS Glue에 있는 S3 버킷의 다중 파트 업로드 객체를 통해 페이지 매김하는 방법

<시간/>

문제 설명: boto3 사용 계정에서 생성된 AWS Glue 데이터 카탈로그에서 S3 버킷의 다중 파트 업로드 객체를 통해 페이지를 매기기 위한 Python의 라이브러리

이 문제를 해결하기 위한 접근 방식/알고리즘

  • 1단계: boto3 가져오기 및 보토코어 예외를 처리하는 예외.

  • 2단계: prefix_name, 최대_항목 , page_sizestarting_token bucket_name 동안 이 함수의 선택적 매개변수입니다. 필수 매개변수입니다.

    • 접두사_이름 사용자가 페이지를 넘기려는 특정 하위 폴더입니다.

    • 최대_항목 반환할 총 레코드 수를 나타냅니다. 사용 가능한 레코드의 수> max_items인 경우 , NextToken 페이지 매김 재개에 대한 응답으로 제공됩니다.

    • 페이지 크기 각 페이지의 크기를 나타냅니다.

  • starting_token 페이지 매김을 돕고 이전 응답의 마커를 사용합니다.

  • 3단계: boto3 lib를 사용하여 AWS 세션 생성 . region_name을(를) 확인하십시오. 기본 프로필에 언급되어 있습니다. 언급되지 않은 경우 region_name을 명시적으로 전달합니다. 세션을 만드는 동안.

  • 4단계: S3용 AWS 클라이언트를 생성합니다.

  • 5단계: 페이지네이터 만들기 list_multipart_uploads를 사용하는 S3 버킷의 객체 버전에 대한 세부 정보가 포함된 객체 .

  • 6단계: 페이지 매김 기능을 호출하고 max_items 전달 , page_sizestarting_token PaginationConfigbucket_name 동안 매개변수 Bucket 매개변수로, prefix_name을 Prefix로.

  • 7단계: max_size를 기준으로 레코드 수를 반환합니다. 및 page_size .

  • 8단계: 페이지를 매기는 동안 문제가 발생한 경우 일반 예외를 처리합니다.

예시 코드

다음 코드를 사용하여 사용자 계정에서 생성된 S3 버킷의 멀티파트 업로드를 통해 페이지 매김 -

import boto3
from botocore.exceptions import ClientError

def paginate_through_multipart_upload_s3_bucket(bucket_name, prefix_name=None, max_items=None:int,page_size=None:int, starting_token=None:string):
   session = boto3.session.Session()
   s3_client = session.client('s3')
   try:
   paginator = s3_client.get_paginator('list_objects')
      response = paginator.paginate(Bucket=bucket_name, Prefix=prefix_name,   PaginationConfig={
         'MaxItems':max_items,
         'PageSize':page_size,
         'StartingToken':starting_token}
      )
   return response
   except ClientError as e:
      raise Exception("boto3 client error in paginate_through_multipart_upload_s3_bucket: " + e.__str__())
   except Exception as e:
      raise Exception("Unexpected error in paginate_through_multipart_upload_s3_bucket: " + e.__str__())

a = paginate_through_multipart_upload_s3_bucket('s3-test-bucket', 'testfolder',2,5)
print(*a)

출력

{'ResponseMetadata': {'RequestId': 'YA9CGTAAX', 'HostId': '8dqJW******************', 'HTTPStatusCode': 200, 'HTTPHeaders': {'x-amz-id-2': '8dqJW*********************, 'x-amz-request-id': 'YA9CGTAAX', 'date': 'Sat, 03 Apr 2021 08:16:05 GMT', 'content-type': 'application/xml', 'transfer-encoding': 'chunked', 'server': 'AmazonS3'}, 'RetryAttempts': 0}, 'Bucket': 's3-test-bucket', 'KeyMarker': '', 'UploadIdMarker': '', 'NextKeyMarker': '', 'Prefix': 'testfolder', 'NextUploadIdMarker': '', 'MaxUploads': 5, 'IsTruncated': False, 'Uploads': [
{'UploadId': 'YADF**************LK25',
'Key': 'testfolder/testfilemultiupload.csv',
'Intiated':datetime(2021,1,2),
'StorageClass': 'STANDARD'
'Owner':{
'DisplayName': 'AmazonServicesJob'
'Id': '********************'
}
], 'CommonPrefixes': None}