logo

Select Sidearea

Populate the sidearea with useful widgets. It’s simple to add images, categories, latest post, social media icon links, tag clouds, and more.
hello@youremail.com
+1234567890

블로그

Our Services & Expertise

편미분과 기울기 벡터는 함수의 최소값 또는 최대값을 찾기 위해 머신러닝 알고리즘에서 매우 자주 사용됩니다. 기울기 벡터는 신경망 훈련, 로지스틱 회귀 및 기타 여러 분류 및 회귀 문제에 사용됩니다.이 튜토리얼에서는 편미분과 그라디언트 벡터를 발견합니다.이 자습서를 완료하면 다음을 알 수 있습니다.여러 변수의 함수레벨 세트, 등고선 및 두 변수 함수의 그래프여러 변수 함수의 편미분그라디언트 벡터와 그 의미튜토리얼 개요이 자습서는 다음과 같이 세 부분으로 나뉩니다.여러 변수의 함수레벨 세트윤곽그래프편파생상품의 정의그라데이션...

Read More

많은 변수에 의존하는 함수를 연구하는 것이 종종 바람직합니다. 다변량 미적분학은 변화율 계산과 같이 미적분학에서 찾은 개념을 여러 변수로 확장하여 이를 수행할 수 있는 도구를 제공합니다. 그래디언트가 모델 매개 변수를 업데이트하는 데 광범위하게 사용되는 신경망을 훈련하는 과정에서 필수적인 역할을합니다. 이 튜토리얼에서는 다변량 미적분학에 대한 짧은 소개를 발견할 것입니다. 이 자습서를 완료하면 다음을 알 수 있습니다.다변량 함수는 출력값을 생성하기 위해 여러 입력 변수에 의존합니다. 다변량 함수의 기울기는 다른 방향으로 함수의 도함수를...

Read More

라그랑주 승수 방법은 같음 또는 부등식 제약 조건이 적용되는 함수의 국소 최소값 또는 국소 최대값을 찾는 간단하고 우아한 방법입니다. 라그랑주 승수는 결정되지 않은 승수라고도합니다. 이 자습서에서는 같음 제약 조건이 지정된 경우이 방법에 대해 설명합니다. 이 튜토리얼에서는 라그랑주 승수의 방법과 같음 제약 조건이 있을 때 함수의 국소 최소값 또는 최대값을 찾는 방법을 알아봅니다.이 자습서를 완료하면 다음을 알 수 있습니다.같음 제약 조건을 가진 함수의 로컬 최대값 또는 최소값을...

Read More

지도 학습 문제이든 감독되지 않은 문제이든 백그라운드에서 작동하는 최적화 알고리즘이 있습니다. 거의 모든 분류, 회귀 또는 클러스터링 문제를 최적화 문제로 캐스팅할 수 있습니다.이 튜토리얼에서는 최적화가 무엇이며 이와 관련된 개념을 발견하게 될 것입니다.이 자습서를 완료하면 다음을 알 수 있습니다.수학적 프로그래밍 또는 최적화란?최대화 문제와 최소화 문제의 차이점로컬 솔루션과 글로벌 최적 솔루션의 차이점제약 조건 최적화와 제약 조건이 없는 최적화의 차이점선형 계획법과 비선형 계획법의 차이점최적화의 예튜토리얼 개요이 자습서는 다음과...

Read More

선의 기울기와 곡선의 접선과의 관계는 미적분학의 기본 개념입니다. 함수 도함수에 대한 일반적인 이해를 위해서는 중요합니다.이 튜토리얼에서는 선의 기울기와 곡선에 대한 접선이 무엇인지 알아낼 것입니다.이 자습서를 완료하면 다음을 알 수 있습니다.선의 기울기wrt x 구간에 대한 f(x)의 평균 변화율곡선의 기울기한 점의 곡선에 대한 접선튜토리얼 개요이 자습서는 다음과 같이 두 부분으로 나뉩니다.선과 곡선의 기울기곡선에 대한 접선선의 기울기선의 기울기를 검토하는 것으로 시작하겠습니다. 미적분학에서 선의 기울기는 가파름을 숫자로 정의합니다. 이...

Read More

미적분학은 다양한 머신러닝 알고리즘의 내부 작동을 이해할 수 있도록 하는 머신러닝의 핵심 수학적 개념 중 하나입니다. 머신러닝에서 미적분학의 중요한 응용 프로그램 중 하나는 역전파와 함께 신경망 모델을 훈련할 수 있는 경사하강법 알고리즘입니다. 이 자습서에서는 머신러닝에서 미적분학의 필수적인 역할을 알아봅니다. 이 자습서를 완료하면 다음을 알 수 있습니다.미적분학은 오류 함수를 최소화하기 위한 경사하강법 알고리즘과 같은 머신러닝 알고리즘의 내부 작동을 이해하는 데 필수적인 역할을 합니다. 미적분학은 복잡한 목적 함수와 다양한 머신러닝 응용...

Read More

인공 신경망은 입력과 출력 간의 매핑을 근사화하는 계산 모델입니다. 그것은 이웃 뉴런으로부터 일련의 자극을받을 때 정보를 전파하는 상호 연결된 뉴런의 네트워크로 유사하게 구성되어 있다는 점에서 인간 두뇌의 구조에서 영감을 받았습니다.신경망 훈련에는 역전파 알고리즘과 경사하강법 알고리즘을 함께 사용하는 프로세스가 포함됩니다. 앞으로 살펴보겠지만 이 두 알고리즘은 모두 미적분학을 광범위하게 사용합니다.이 튜토리얼에서는 미적분학의 측면이 신경망에 어떻게 적용되는지 알아볼 것입니다. 이 자습서를 완료하면 다음을 알 수 있습니다.인공 신경망은 뉴런과 연결의 계층으로...

Read More

체인 규칙을 사용하면 복합 함수의 도함수를 찾을 수 있습니다.피드포워드 신경망을 훈련시키기 위해 역전파 알고리즘에 의해 광범위하게 계산됩니다. 특정 연산 순서를 따르면서 효율적인 방식으로 체인 규칙을 적용함으로써 역전파 알고리즘은 네트워크의 각 가중치에 대한 손실 함수의 오차 기울기를 계산합니다. 이 튜토리얼에서는 일변량 함수와 다변량 함수에 대한 미적분학의 연쇄 규칙을 발견하게 됩니다.이 자습서를 완료하면 다음을 알 수 있습니다.복합 함수는 두 개(또는 그 이상) 함수의 조합입니다. 체인 규칙을 사용하면 복합 함수의...

Read More

많은 머신러닝 알고리즘의 핵심 프로세스 중 하나인 최적화는 목적 함수를 최대화하거나 최소화하기 위해 모델의 매개변수 값을 업데이트하는 방식을 결정하기 위해 파생 함수를 사용합니다. 이 튜토리얼에서는 함수의 파생물을 찾을 수 있는 다양한 기술을 계속 탐색할 것입니다. 특히, 우리는 첫 번째 원칙에서 모든 미분을 찾아야 하는 것보다 더 빨리 함수의 도함수에 도달하는 데 사용할 수 있는 멱의 법칙, 곱의 법칙 및 몫의 법칙을 탐구할 것입니다. 따라서 특히 어려운 함수의...

Read More

머신러닝 및 데이터 과학 알고리즘에서 가장 자주 사용되는 함수 중 하나는 다항식 또는 x의 거듭제곱을 포함하는 함수입니다. 따라서 이러한 함수의 도함수가 계산되는 방법을 이해하는 것이 중요합니다.이 튜토리얼에서는 x와 다항식의 거듭제곱 도함수를 계산하는 방법을 알아봅니다.이 자습서를 완료하면 다음을 알 수 있습니다.다항식의 도함수를 계산하기 위한 일반 규칙x의 0이 아닌 실수의 거듭제곱을 포함하는 함수의 도함수를 찾기 위한 일반 규칙튜토리얼 개요이 자습서는 다음과 같이 두 부분으로 나뉩니다.x의 정수 거듭제곱을...

Read More