머신러닝 알고리즘의 작동 방식(입력과 출력의 매핑을 학습)

머신러닝 알고리즘은 어떻게 작동합니까?

예측 모델링을 위한 모든 감독 머신러닝 알고리즘의 기초가 되는 공통 원칙이 있습니다.

이 게시물에서는 모든 알고리즘의 기초가되는 공통 원칙을 이해함으로써 머신러닝 알고리즘이 실제로 어떻게 작동하는지 알아볼 것입니다.



함수 학습

머신러닝 알고리즘은 입력 변수(X)를 출력 변수(Y)에 가장 잘 매핑하는 대상 함수(f)를 학습하는 것으로 설명됩니다.

Y = f (X)

이것은 입력 변수 (X)의 새로운 예가 주어지면 미래 (Y)에 예측을하고자하는 일반적인 학습 작업입니다.

우리는 함수 (f)가 어떻게 생겼는지 또는 그것이 형태인지 모릅니다. 그렇게 했다면 직접 사용할 것이고 머신러닝 알고리즘을 사용하여 데이터에서 학습할 필요가 없을 것입니다.

생각보다 어렵습니다. 입력 데이터(X)와 독립적인 오류(e)도 있습니다.

Y = f (X) + e

이 오류는 X에서 Y로의 최상의 매핑을 충분히 특성화하기에 충분한 속성이 없는 것과 같은 오류일 수 있습니다. 이 오류를 환원 불가능한 오류라고 하는데, 그 이유는 목표 함수(f)를 아무리 잘 추정해도 이 오류를 줄일 수 없기 때문입니다.

즉, 데이터에서 함수를 학습하는 문제는 어려운 문제이며 이것이 머신러닝 및 머신러닝 알고리즘 분야가 존재하는 이유입니다.



예측을 위한 함수 학습

가장 일반적인 유형의 머신러닝은 매핑 Y=f(X)를 학습하여 새 X에 대한 Y를 예측하는 것입니다.

이를 예측 모델링 또는 예측 분석이라고 하며 우리의 목표는 가능한 가장 정확한 예측을 만드는 것입니다.

따라서 우리는 우리가 배우는 함수 (f)의 모양과 형태에 실제로 관심이 없으며 정확한 예측을 할 뿐입니다.

Y=f(X)의 매핑을 학습하여 데이터의 관계에 대해 자세히 알아볼 수 있으며 이를 통계적 추론이라고 합니다. 이것이 목표라면, 우리는 정확한 예측을 하는 것보다 학습된 모델과 (f)의 형식을 이해하는 더 간단한 방법과 가치를 사용할 것입니다.

함수 (f)를 배울 때 우리는 사용 가능한 데이터에서 그 형태를 추정합니다. 따라서 이 추정치에는 오류가 있습니다. X가 주어진 Y로부터의 기본 가설적 최상의 매핑에 대한 완벽한 추정치는 아닙니다.

적용된 머신러닝에서 기본 함수의 추정치를 개선하고 모델에서 수행한 예측의 성능을 개선하기 위해 많은 시간이 소요됩니다.



함수 학습 기술

머신러닝 알고리즘은 주어진 입력 변수 (X)를 예측 할 때 출력 변수 (Y)를 예측하기 위해 목표 함수 (f)를 추정하는 기술입니다.

다른 표현은 학습되는 함수의 형태에 대해 선형인지 비선형인지와 같이 다른 가정을 합니다.

서로 다른 머신러닝 알고리즘은 함수의 모양과 구조, 그리고 이를 근사화하기 위해 표현을 최적화하는 가장 좋은 방법에 대해 서로 다른 가정을 합니다.

이것이 머신러닝 문제에 대해 다양한 알고리즘 모음을 시도하는 것이 중요한 이유입니다., 우리가 근사화하려는 기본 함수의 구조를 추정하는 데 가장 적합한 접근 방식을 미리 알 수 없기 때문입니다.



요약

이 게시물에서는 예측 모델링을 위한 모든 머신러닝 알고리즘의 목적을 설명하는 기본 원리를 발견했습니다.

머신러닝 알고리즘이 주어진 입력 변수(X) 또는 Y=f(X)가 지정된 출력 변수(Y)의 매핑 함수(f)를 추정하기 위해 작동한다는 것을 배웠습니다.

또한 다른 머신러닝 알고리즘이 기본 함수의 형태에 대해 다른 가정을한다는 것을 배웠습니다. 그리고 대상 함수의 형태에 대해 잘 모를 때 무엇이 가장 잘 작동하는지 확인하기 위해 다양한 알고리즘 모음을 시도해야 합니다.

네피리티
No Comments

Sorry, the comment form is closed at this time.