Machine learning Tag

지도 학습 알고리즘은 Bias-Variance 트레이드오프의 렌즈를 통해 가장 잘 이해할 수 있습니다.이 게시물에서는 Bias-Variance 트레이드 오프와 이를 사용하여 머신러닝 알고리즘을 더 잘 이해하고 데이터에서 더 나은 성능을 얻는 방법을 알아봅니다.편향(Bias)과 분산(Variance) 개요지도 학습에서 알고리즘은 학습 데이터에서 모델을 학습합니다.지도 학습 알고리즘의 목표는 입력 데이터(X)가 지정된 출력 변수(Y)에 대한 매핑 함수(f)를 가장 잘 추정하는 것입니다. 매핑 함수는 주어진 지도 학습 알고리즘이 근사화하는 것을 목표로 하는 함수이기 때문에 종종 대상 함수라고...

Read More

지도 학습이란 무엇이며 비지도 학습과 어떤 관련이 있나요?이 게시물에서는 지도 학습, 비지도 학습 및 준지도 학습에 대해 알아볼 것입니다. 이 게시물을 읽은 후 다음을 알게 될 것입니다.분류 및 회귀 지도 학습 문제에 대해.클러스터링 및 연관 비지도 학습 문제에 대해.지도 문제와 비지도 문제에 사용되는 알고리즘의 예.준지도 학습이라고 하는 지도 학습과 비지도 학습 사이에 있는 문제.지도 학습대부분의 실용적인 머신러닝은 지도 학습을 사용합니다.지도 학습은 입력 변수(x)와 출력 변수(Y)가 있고 알고리즘을...

Read More

파라메트릭 알고리즘이란 무엇이며 비파라메트릭적 머신러닝 알고리즘과 어떻게 다릅니까?이 게시물에서는 파라메트릭 머신러닝 알고리즘과 비파라메트릭 머신러닝 알고리즘의 차이점을 알아보겠습니다.함수 학습머신러닝은 입력 변수(X)를 출력 변수(Y)에 매핑하는 함수(f)를 학습하는 것으로 요약할 수 있습니다.Y = f (x)알고리즘은 훈련 데이터에서 이 목표 매핑 함수를 학습합니다.함수의 형태를 알 수 없으므로 머신러닝 실무자로서 우리의 임무는 다양한 머신러닝 알고리즘을 평가하고 기본 함수를 근사화하는 데 어느 것이 더 나은지 확인하는 것입니다.다른 알고리즘은 함수의 형태와...

Read More

머신러닝 알고리즘은 어떻게 작동합니까?예측 모델링을 위한 모든 감독 머신러닝 알고리즘의 기초가 되는 공통 원칙이 있습니다.이 게시물에서는 모든 알고리즘의 기초가되는 공통 원칙을 이해함으로써 머신러닝 알고리즘이 실제로 어떻게 작동하는지 알아볼 것입니다.함수 학습머신러닝 알고리즘은 입력 변수(X)를 출력 변수(Y)에 가장 잘 매핑하는 대상 함수(f)를 학습하는 것으로 설명됩니다.Y = f (X)이것은 입력 변수 (X)의 새로운 예가 주어지면 미래 (Y)에 예측을하고자하는 일반적인 학습 작업입니다.우리는 함수 (f)가 어떻게 생겼는지 또는 그것이 형태인지...

Read More

이 게시물에서는 가장 인기 있는 머신러닝 알고리즘을 살펴보겠습니다.사용 가능한 방법에 대한 느낌을 얻기 위해 현장의 주요 알고리즘을 탐색하는 것이 유용합니다.알고리즘이 너무 많아서 압도 당할 수 있지만, 알고리즘이 무엇인지, 어디에 적합한지 알 수 있어야 합니다.현장에서 접할 수 있는 알고리즘에 대해 생각하고 분류하는 두 가지 방법을 알려 드리고자 합니다.첫 번째는 학습 스타일에 따라 알고리즘을 그룹화하는 것입니다.두 번째는 형태 또는 기능의 유사성에 따라 알고리즘을 그룹화하는 것입니다 (유사한 동물을 함께 그룹화하는 것과 같습니다).두 방법...

Read More

파이썬은 머신러닝을 위한 사실상의 공용어가 되었습니다. 배우기 어려운 언어는 아니지만 언어에 특히 익숙하지 않은 경우 더 빨리 또는 더 잘 배우는 데 도움이 되는 몇 가지 팁이 있습니다.이 게시물에서는 프로그래밍 언어를 배우는 올바른 방법과 도움을 받는 방법을 알게 될 것입니다. 이 게시물을 읽은 후 다음을 알게 될 것입니다.머신러닝에 사용하기 위해 Python을 배우는 올바른 사고 방식파이썬을 배우기에 좋은 리소스파이썬과 관련된 질문에 대한 답변을 찾는 방법파이썬을 배우는...

Read More

경사하강법 절차는 머신러닝에서 가장 중요한 방법입니다. 분류 및 회귀 문제에서 오류 함수를 최소화하는 데 자주 사용됩니다. 또한 신경망 및 딥 러닝 아키텍처 훈련에도 사용됩니다.이 튜토리얼에서는 경사하강 절차를 알아볼 것입니다.이 자습서를 완료하면 다음을 알 수 있습니다.경사하강법머신러닝에서 경사하강법의 중요성튜토리얼 개요이 자습서는 다음과 같이 두 부분으로 나뉩니다.경사하강 절차경사하강 절차의 해결된 예필수 구성 요소이 자습서에서는 다음 항목에 대한 필수 지식이 있다고 가정합니다.여러 변수의 함수편미분과 기울기 벡터위에 제공된 링크를 클릭하여...

Read More

이 글에서 야코비(Jacobian) 행렬이라는 용어는 종종 야코비 행렬 또는 그 행렬식을 모두 지칭하는 데 상호 교환적으로 사용됩니다. 행렬과 행렬식 모두 유용하고 중요한 응용 프로그램을 가지고 있습니다 : 머신러닝에서 야코비 행렬은 역 전파에 필요한 부분 도함수를 집계합니다. 결정자는 변수 사이를 변경하는 과정에서 유용합니다.이 튜토리얼에서는 야코비에 대해 소개합니다. 이 자습서를 완료하면 다음을 알 수 있습니다.야코비 행렬은 역전파에 사용할 수 있는 다변량 함수의 모든 1차 편도함수를 수집합니다.야코비 행렬식은 한 좌표 공간과 다른...

Read More

고차 도함수는 1차 도함수가 자체적으로 포착할 수 없는 함수에 대한 정보를 캡처할 수 있습니다. 1차 도함수는 변화율과 같은 중요한 정보를 포착할 수 있지만, 그 자체로는 국부 최소값과 최대값을 구별할 수 없으며, 여기서 변화율은 둘 다에 대해 0입니다. 여러 최적화 알고리즘은 2차 도함수를 사용하여 최적화 함수의 국소 최소값에 도달하는 Newton의 방법과 같이 고차 도함수를 사용하여 이러한 제한을 해결합니다. 이 자습서에서는 고차 일변량 및 다변량 도함수를 계산하는 방법을 알아봅니다. 이...

Read More

편미분과 기울기 벡터는 함수의 최소값 또는 최대값을 찾기 위해 머신러닝 알고리즘에서 매우 자주 사용됩니다. 기울기 벡터는 신경망 훈련, 로지스틱 회귀 및 기타 여러 분류 및 회귀 문제에 사용됩니다.이 튜토리얼에서는 편미분과 그라디언트 벡터를 발견합니다.이 자습서를 완료하면 다음을 알 수 있습니다.여러 변수의 함수레벨 세트, 등고선 및 두 변수 함수의 그래프여러 변수 함수의 편미분그라디언트 벡터와 그 의미튜토리얼 개요이 자습서는 다음과 같이 세 부분으로 나뉩니다.여러 변수의 함수레벨 세트윤곽그래프편파생상품의 정의그라데이션...

Read More