base64 모듈의 기능은 이진 데이터를 일반 텍스트 프로토콜을 사용한 전송에 적합한 ASCII 하위 집합으로 변환합니다. 인코딩 및 디코딩 기능은 Base16, Base32 및 Base64 알고리즘과 사실상의 표준 Ascii85 및 Base85 인코딩을 정의하는 RFC 3548의 사양을 구현합니다. RFC 3548 인코딩은 바이너리 데이터를 인코딩하는 데 적합하므로 이메일로 안전하게 보내거나 URL의 일부로 사용하거나 HTTP POST 요청의 일부로 포함할 수 있습니다. 이 모듈에서 제공하는 최신 인터페이스는 바이트열류 객체를
binhex 모듈은 binhex4 형식의 파일을 인코딩 및 디코딩합니다. 이 형식은 Macintosh 파일을 ASCII로 표시하는 데 사용됩니다. 데이터 포크만 처리됩니다. binhex 모듈은 다음 기능을 정의합니다 - binhex.binhex(입력, 출력): 파일 이름 입력이 있는 이진 파일을 binhex 파일 출력으로 변환합니다. 출력 매개변수는 파일 이름 또는 파일류 객체(write() 및 close() 메서드를 지원하는 모든 객체)일 수 있습니다. binhex.hexbin(입력, 출력): binhex 파일 입력을 디코
binascii 모듈은 바이너리와 다양한 ASCII 인코딩 바이너리 표현 사이의 변환을 가능하게 합니다. binascii 모듈에는 더 빠른 속도를 위해 C로 작성된 저수준 함수가 포함되어 있습니다. uu, base64 또는 binhex 모듈과 같은 상위 모듈에서 사용됩니다. binascii 모듈은 다음 기능을 정의합니다. 이 함수의 이름은 a2b_* 또는 b2a_*입니다. binascii.a2b_uu(문자열): uuencoded 데이터의 한 줄을 다시 바이너리로 변환하고 바이너리 데이터를 반환합니다. 줄은 마지막 줄을 제외하고
Python 표준 라이브러리의 키워드 모듈을 사용하면 Python 프로그램에서 문자열이 키워드인지 확인할 수 있습니다. keyword.is키워드: 이 함수는 s가 Python 키워드인 경우 true를 반환합니다. keyword.kwlist: 이 속성은 인터프리터에 대해 정의된 모든 키워드를 포함하는 시퀀스를 반환합니다. 향후 버전에 키워드가 표시될 경우 해당 키워드도 포함됩니다. >>> import keyword >>> kwlist = keyword.kwlist >>> kwlist
Python은 주로 numpy, pandas, matplotlib, seaborn 등의 데이터 분석 및 시각화를 위한 수많은 라이브러리를 제공합니다. 이 섹션에서는 numpy 위에 구축된 오픈 소스 라이브러리인 데이터 분석 및 시각화를 위한 pandas 라이브러리에 대해 설명합니다. 이를 통해 빠른 분석, 데이터 정리 및 준비를 수행할 수 있습니다. Pandas는 또한 아래에서 볼 수 있는 수많은 내장 시각화 기능을 제공합니다. 설치 pandas를 설치하려면 터미널에서 아래 명령을 실행하십시오 - pipinstall pandas
Python은 데이터 시각화를 위해 사용하기 쉬운 다양한 라이브러리를 제공합니다. 좋은 점은 이러한 라이브러리가 작거나 큰 데이터 세트와 함께 작동한다는 것입니다. 데이터 시각화를 위해 가장 일반적으로 사용되는 Python 라이브러리 중 일부는 다음과 같습니다. - 매트플로트립 판다 음모 시본 아래에서는 해당 데이터를 더 잘 분석하기 위해 하나의 고정 데이터에 대해 다양한 유형의 시각화 차트를 그릴 것입니다. 다양한 차트를 통해 시각화하기 위해 아래 데이터 세트를 분석할 것입니다 − 국가 또는 지역 연
크롤러 개발을 위한 최고의 프레임워크 중 하나는 스크래피입니다. Scrapy는 웹사이트를 쉽게 스크래핑할 수 있도록 고급 기능을 활용하는 인기 있는 웹 스크래핑 및 크롤링 프레임워크입니다. 설치 Windows에 scrapy를 설치하는 것은 쉽습니다. pip 또는 conda(콘다가 있는 경우)를 사용할 수 있습니다. Scrapy는 python 2 및 3 버전 모두에서 실행됩니다. pip install Scrapy 또는 conda install –c conda-forge scrapy Scrapy가 올바르게 설치되면 이제 터미널에
스크레이피 스파이더 Scrapy spider는 웹사이트의 링크를 따라가서 웹페이지에서 정보를 추출하는 기능을 제공하는 클래스입니다. 다른 스파이더가 상속해야 하는 기본 클래스입니다. 스크레이핑 허브 Scrapinghub는 Scrapy 스파이더를 실행하는 오픈 소스 응용 프로그램입니다. Scrapinghub는 웹 콘텐츠를 유용한 데이터 또는 정보로 바꿉니다. 복잡한 웹 페이지의 경우에도 웹 페이지에서 데이터를 추출할 수 있습니다. 우리는 scrapinghub를 사용하여 클라우드에 scrapy spider를 배포하고 실행할 것입
자연어 처리는 인간의 자연어를 자동으로 생성하고 이해하는 연구입니다. 오늘날 컴퓨터 기술이 거의 모든 산업에 통합됨에 따라 이것은 해결해야 할 점점 더 흥미로운 작업이 되고 있습니다. 우리는 자연어 처리의 특정 분야를 공부할 것입니다. 가독성. 여기에는 텍스트의 가독성을 결정하는 주제가 포함됩니다. 이것은 텍스트를 읽거나 이해하는 것이 얼마나 어려운지를 나타냅니다. 가독성 지수는 텍스트를 읽고 이해하는 것이 얼마나 어려운(또는 쉬운)지를 나타내는 숫자 값입니다. 가독성을 결정하기 위한 몇 가지 다른 테스트가 있으며 서로 다른 사용
이미지 인식은 선형 회귀 및 유사성 비교와 같은 훨씬 간단한 방법을 사용하여 수행되었습니다. 결과는 분명히 좋지 않았고 손으로 쓴 알파벳을 인식하는 간단한 작업조차도 어려웠습니다. CNN(컨볼루션 신경망)은 이미지를 인식할 때 인간 두뇌의 신경 활동을 느슨하게 시뮬레이션하는 저렴한 계산 방법을 제공함으로써 우리가 전통적으로 하던 것에서 한 단계 더 발전해야 합니다. 컨볼루션 신경망 개요 우리가 다양한 물체를 인식하는 방식과 매우 유사하게, 컴퓨터 알고리즘은 입력을 일반화하고 이전에 본 적이 없는 이미지를 판단하기 전에 수백만
Folium은 여러 종류의 전단지 맵을 만들 수 있는 매우 강력한 파이썬 라이브러리입니다. 전단지/폴리움 맵은 상호 작용하므로 대시보드 구축에 이상적입니다. 설치 folium 설치는 pip −를 사용하여 매우 쉽습니다. $pip 설치 폴리움 아래 스크린샷에서 볼 수 있듯이 콘솔/cmd에 위의 명령을 입력하기만 하면 pip가 folium과 Python 설치에 대한 종속성을 설치합니다. 기본 지도 #라이브러리 가져오기 folium 가져오기#위도와 경도를 사용합니다. &zoomlevel 4. 확대/축소 숫자가 클수록 더
Python은 −를 포함하여 이미지 처리를 위한 많은 라이브러리를 제공합니다. OpenCV − 2D 및 3D 기능 툴킷, 얼굴 및 제스처 인식, 인간-컴퓨터 상호 작용, 모바일 로봇 공학, 물체 식별 등과 같은 광범위한 영역에서 응용 프로그램과 함께 주로 실시간 컴퓨터 비전에 중점을 둔 이미지 처리 라이브러리. Numpy 및 Scipy 라이브러리 − 이미지 조작 및 처리용입니다. 스키킷 − 이미지 처리를 위한 많은 알고리즘을 제공합니다. Python 이미징 라이브러리(PIL) − 축소판 만들기, 크기 조정, 회
스테가노그래피는 이면에 정보를 숨기는 기술입니다. SHA1, MD5 등과 같은 다른 알고리즘을 통해 데이터를 암호화하는 데 중점을 둔 암호화와 달리 스테가노그래피는 다른 파일, 이미지, 메시지 또는 비디오 내에서 데이터(데이터는 파일, 이미지, 메시지 또는 비디오일 수 있음)를 숨기는 데 더 중점을 둡니다. 매력을 피하기 위해. 그래서 여기에서 우리는 이미지 모양의 눈에 띄는 변화 없이 이미지 뒤에 정보를 숨기는 간단한 파이썬 프로그램을 만들려고 노력할 것입니다. 프로그램에는 두 가지 주요 부분이 있습니다. 첫 번째는 이미지 파일
Python은 이제 f-문자열이라고 하는 문자열 형식을 지정하는 새로운 방법을 제공합니다. 이 기능은 PEP-498의 Python 3.6에서 사용할 수 있습니다. 문자열과 함께 접두어 f가 붙기 때문에 (f-string)이라고 합니다. 또한 문자 f는 이러한 f-문자열을 서식 지정에 사용할 수 있음을 나타냅니다. 다음은 f-문자열의 사용을 보여주는 몇 가지 예입니다. 프로그램 #1 name =Rajeshage =13 * 3fString =f내 이름은 {name}이고 나이는 {age}입니다.print(fString)#소문자 f 대신
여기에서 우리는 파이썬을 사용하여 매우 독특한 방식으로 텍스트를 얼마나 다르게 표시할 수 있는지 볼 것입니다. 따라서 Hello, Python을 표시하고 다음과 같이 텍스트/문자열(Hello, Python)을 표시할 수 있는 여러 가지 방법을 사용한다고 가정해 보겠습니다. 입력 “Hello, Python” 출력 1 ___ ___ .__ .__ / | \ ____ | | | | ____ / ~ \_/ __ \| | | | / _ \ \ Y /\ ___/| |_| |_( <_> ) \___|_ / \_
자연어 처리(Natural Language Processing)의 기본 아이디어는 기계가 최소한 텍스트가 의미하는 바의 일부를 이해하거나 말하려는 것과 같은 수준까지는 사람의 개입 없이 어떤 형태의 분석 또는 처리를 수행할 수 있다는 것입니다. 텍스트를 처리하는 동안 컴퓨터는 텍스트에서 쓸모없거나 덜 중요한 데이터(단어)를 걸러내야 합니다. NLTK에서는 쓸모없는 단어(데이터)를 중지 단어라고 합니다. 필수 라이브러리 설치 먼저 nltk 라이브러리가 필요합니다. 터미널에서 아래 명령을 실행하기만 하면 됩니다. $pip insta
데이터 마이닝, 정보 검색 등과 같은 다양한 도메인에서 웹 페이지의 콘텐츠를 추출할 수 있습니다. 신문 및 잡지의 웹 사이트에서 정보를 추출하기 위해 신문 라이브러리를 사용할 것입니다. 이 라이브러리의 주요 목적은 신문 및 유사한 웹사이트에서 기사를 추출하고 선별하는 것입니다. 설치: 신문 라이브러리를 설치하려면 터미널에서 실행하십시오: $ pip install newspaper3k lxml 종속성의 경우 터미널에서 아래 명령을 실행하십시오. $pip install lxml PIL을 설치하려면 실행 $p
여기서는 PyTorch를 사용하여 CNN이 MNIST 데이터 세트를 사용하여 필기 숫자 분류기를 인식하도록 훈련할 것입니다. MNIST는 손으로 쓴 숫자의 70,000개 이상의 레이블이 지정된 28*28 픽셀 회색조 이미지를 다루는 손으로 쓴 분류 작업에 널리 사용되는 데이터세트입니다. 데이터 세트에는 거의 60k 훈련 이미지와 10k 테스트 이미지가 포함되어 있습니다. 우리의 임무는 60k 훈련 이미지를 사용하여 모델을 훈련시킨 다음 10k 테스트 이미지에서 분류 정확도를 테스트하는 것입니다. 설치 먼저 터미널에서 다음을 실행
NodeJ와 Python은 개발자와 웹 디자이너가 선호하는 두 가지 주요 언어입니다. 그러나 NodeJ가 파이썬에 미치지 못하는 몇 가지 영역은 수치 및 과학 계산(AI, 머신 러닝, 딥 러닝 등)입니다. python은 과학 컴퓨팅을 훨씬 쉽게 사용할 수 있도록 많은 라이브러리를 제공합니다. 다행히도 백그라운드에서 Python을 실행하고 결과를 반환하여 nodejs 애플리케이션 내에서 Python 라이브러리를 활용할 수 있습니다. 이를 위해 우리는 NodeJ의 child_process 표준 라이브러리를 사용하여 백그라운드에서 p
1970년경 영국의 한 수학자는 자신의 Game of Life를 만들었습니다. 이 게임은 기본적으로 생물학적 유기체 군체의 혼란스럽지만 패턴화된 성장을 묘사하는 일련의 규칙입니다. Game of Life는 살아있는 세포와 죽은 세포로 구성된 2차원 격자입니다. 인생 게임의 규칙 인구 과잉 :세포가 3개 이상의 살아있는 세포에 둘러싸여 있으면 세포가 죽습니다(꺼짐). 정적 :세포가 2~3개의 살아있는 세포로 둘러싸여 있으면 세포가 살아(on)합니다. 인구 부족 :세포가 2개 미만의 살아있는 세포로 둘러싸여 있으면 세포