Skip to content
Home » 인공 지능 확률 과 통계 | 인공지능과 통계학(Ai \U0026 Statistics) – 허명회 교수 24769 좋은 평가 이 답변

인공 지능 확률 과 통계 | 인공지능과 통계학(Ai \U0026 Statistics) – 허명회 교수 24769 좋은 평가 이 답변

당신은 주제를 찾고 있습니까 “인공 지능 확률 과 통계 – 인공지능과 통계학(AI \u0026 Statistics) – 허명회 교수“? 다음 카테고리의 웹사이트 kk.taphoamini.com 에서 귀하의 모든 질문에 답변해 드립니다: kk.taphoamini.com/wiki. 바로 아래에서 답을 찾을 수 있습니다. 작성자 데이타솔루션 DATAsolution 이(가) 작성한 기사에는 조회수 2,790회 및 좋아요 47개 개의 좋아요가 있습니다.

Table of Contents

인공 지능 확률 과 통계 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 인공지능과 통계학(AI \u0026 Statistics) – 허명회 교수 – 인공 지능 확률 과 통계 주제에 대한 세부정보를 참조하세요

인공지능 분야에서 통계 전문가가 할 일들은 무엇일까요?
통계학의 관점에서 인공지능을 설명해봅니다.
영상으로 확인해보세요 🙂

#데이타솔루션 #인공지능 #통계학

인공 지능 확률 과 통계 주제에 대한 자세한 내용은 여기를 참조하세요.

인공지능, 조건부 확률 – Contenta M

인공지능을 실현하고자 했던 초창기의 과학자들도 중요한 사실들과 새로운 사실들을 … 이런 상황에서 새로운 돌파구를 다름아닌 확률,통계에서 찾아내게 됩니다.

+ 여기에 자세히 보기

Source: magazine.contenta.co

Date Published: 12/29/2022

View: 457

확률과 통계 인공지능과 조건부확률 by 학규 손 – Prezi

인공지능과 조건부확률. -조건부 확률의 개념과 인공지능. 기술에 사용 되는 조건부확률. 4차 산업혁명 기술 의 중심, 확률과 통계- 실생활 (온라인 …

+ 여기를 클릭

Source: prezi.com

Date Published: 10/23/2022

View: 3348

확률과 통계, 빅데이터와 인공지능 기술에 왜 필요할까?

인공지능은 확률과 통계를 활용하여 과거의 기록을 분석하고 환자의 생존 가능성에 대해 예측합니다. 그리고 이는 무려 95%의 적중률을 보이고 …

+ 여기에 보기

Source: post.naver.com

Date Published: 9/19/2021

View: 5660

인공지능을 위한 수학 4. 확률과 통계 – velog

확률과 통계는 ‘어떤 경향을 알아낸 후, 한정된 데이터로부터 전체의 모양을 예측’하기 위해 사용한다. 4-1. 확률. 확률(Probability)는 어떤 사건이 …

+ 여기에 표시

Source: velog.io

Date Published: 4/13/2022

View: 8847

Chapter 6. 통계 기반 머신러닝 1 – 확률분포와 모델링

이 문서는 한빛미디어에서 나온 처음 배우는 인공지능 을 공부하면서 정리한 것이다. 01 통계 모델과 확률분포¶. 확률기반¶. 확률분포 란 확률변수가 특정한 값을 가질 …

+ 더 읽기

Source: artificialnetworkforstarters.readthedocs.io

Date Published: 2/21/2021

View: 2311

2.6. 확률과 통계

확률과 통계¶. 머신 러닝은 어떤 방식이든지 결국 예측을 수행하는 것입니다. 어떤 환자의 의료 기록을 바탕으로 내년에 심장 마비를 겪을 확률 예측하기를 예로 들어 …

+ 여기에 보기

Source: ko.d2l.ai

Date Published: 4/22/2021

View: 1875

딥러닝을 위한 수학, 확률과 통계 – JuHyung Son

인공지능 시스템의 행동을 분석하기 위해 확률과 통계를 사용한다.
. 또 일반적인 컴퓨터 과학과는 다르게 기계학습은 대부분 불확실한 것과 확률 …

+ 자세한 내용은 여기를 클릭하십시오

Source: www.sallys.space

Date Published: 12/10/2021

View: 2066

수학 공부가 쓸모 있을까?

우리 생활에서 인공지능은 다양한 분야에 활용된다. 기업 생산과 … 사실 인스타그램을 통해 우리는 매일 빅데이터로 인한 확률과 통계를 경험한다.

+ 여기에 보기

Source: www.ksakosmos.com

Date Published: 3/22/2022

View: 2348

[딥러닝 입문 5] 확률·통계의 기초(1/5) – 두우우부

여기서는 기계학습에 이용하는 확률, 통계의 개념과 용어를 설명합니다. 세상에는 ‘무작위’로 일어나는 사건이나 배경의 메커니즘을 모르기 때문에 …

+ 자세한 내용은 여기를 클릭하십시오

Source: doooob.tistory.com

Date Published: 9/17/2022

View: 3666

[톡톡에듀]AI 시대 지배자 되고 싶나, 확률·통계 도사 돼라

AI가 방정식, 함수 기반의 수학적 사고를 기반으로 개발되기도 하지만, 인공지능 시대에서 이전보다 중요해진 수학 단원은 ‘확률’과 ‘통계’라고 할 수 …

+ 더 읽기

Source: www.joongang.co.kr

Date Published: 6/13/2021

View: 6160

주제와 관련된 이미지 인공 지능 확률 과 통계

주제와 관련된 더 많은 사진을 참조하십시오 인공지능과 통계학(AI \u0026 Statistics) – 허명회 교수. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

인공지능과 통계학(AI \u0026 Statistics) - 허명회 교수
인공지능과 통계학(AI \u0026 Statistics) – 허명회 교수

주제에 대한 기사 평가 인공 지능 확률 과 통계

  • Author: 데이타솔루션 DATAsolution
  • Views: 조회수 2,790회
  • Likes: 좋아요 47개
  • Date Published: 2020. 10. 6.
  • Video Url link: https://www.youtube.com/watch?v=xUB-QSVp1kw

확률분포와 모델링 — ArtificialNeuralNetworkForNewbie 0.0.1 documentation

베이즈 네트워크¶

베이즈 네트워크 는 acyclic and directed graph와 a set of nodes, a set of link를 통해 random variable을 conditionally independent하게 표현하는 graphical notation입니다.

Typical Local Structure

2.6. 확률과 통계 — Dive into Deep Learning documentation

2.6. 확률과 통계¶

머신 러닝은 어떤 방식이든지 결국 예측을 수행하는 것입니다. 어떤 환자의 의료 기록을 바탕으로 내년에 심장 마비를 겪을 확률 예측하기를 예로 들어볼 수 있습니다. 비정상 탐지를 위해서, 비행기 제트 엔진의 센서 데이터가 정상적으로 동작할 때 어떤 값을 갖게 될지 예측을 할 수도 있습니다. 강화학습에서는 에이전트가 주어진 환경에서 똑똑하게 동작하게 만드는 것이 목표입니다. 이 경우에는 주어진 행동들 중에 가장 높은 보상을 받는 확률을 고려해야합니다. 추천 시스템을 만드는 경우에도 확률을 고려해야합니다. 예를 들어 여러분이 대형 온라인 서점에서 일을 한다면, 어떤 책을 홍보했을 때 특정 사용자가 그 책을 구매할지에 대한 확률을 추정하고 싶어할 것입니다. 이를 위해서 우리는 확률과 통계의 언어를 사용할 필요가 있습니다. 확률을 다루는 별도의 과정, 전공, 논문, 직업 심지어는 부서까지도 있습니다. 이 책의 목표는 이 모든 주제들에 대해서 배워보는 것은 아니고, 여러분이 스스로 머신 러닝 모델을 만들 수 있을 정도의 내용을 알려주고, 이후에 스스로 공부해 볼 수 있는 주제들을 선택할 수 있도록 하는 것입니다.

지금까지 확률에 대해서 많이 이야기를 해왔지만, 확률에 정확하게 무엇인지를 설명하지 않았고 구체적인 예제를 들지는 않았습니다. 동물의 사진이 주어졌을 때, 고양이인지 개인지를 구분하는 문제를 조금 자세하게 살펴 보겠습니다. 이 문제는 간단해 보이지만, 사실 쉽지 않은 문제가 있습니다. 우선은 문제의 난이도가 이미지의 해상도에 따라 차이가 있을 수 있습니다.

10px 20px 40px 80px 160px

사람이 320 픽셀 해상도의 이미지에서 개와 고양이를 구분하는 것은 쉽습니다. 하지만, 40 픽셀이 되면 그 분류가 어렵고, 10픽셀로 줄어들면 거의 불가능합니다. 즉, 개와 고양이를 먼 거리에서 판별하는 것은 (또는 낮은 해상도의 이미지에서) 동전 던지기를 해서 추측하는 것과 동일해집니다. 확률은 확실성에 대한 추론을 하는 공식적인 방법을 제공합니다. 만약, 이미지에 고양이가 있다는 것을 완벽하게 확신한다면, 해당 레이블 \(l\) 이 고양이일 확률, \(P(l=\mathrm{cat})\) 는 1.0이라고 말합니다. 만약 \(l =\mathrm{cat}\) 인지 \(l = \mathrm{dog}\) 에 대한 아무런 판단을 못한다면, 두 확률은 동일하다고 하다고 말하며, \(P(l=\mathrm{cat}) = 0.5\) 이 됩니다. 만약 이미지에 고양이가 있다는 것을 확실하지는 않지만 어느 정도 확신한다면, 확률은 \(.5 < P(l=\mathrm{cat}) < 1.0\) 로 주어질 것입니다. 이제 두번째 예를 들어보겠습니다. 대만 날씨에 대한 데이터를 관찰한 데이터가 있을 때, 내일 비가 내릴 확률을 예측하고자 합니다. 여름인 경우에는 비가 내릴 확률이 \(0.5\) 정도가 될 것입니다. 위 두가지 예제 모두 살펴볼 가치가 있습니다. 두 경우 모두 결과에 대한 불확실성이 있지만, 주요 차이점이 있습니다. 첫번째 예제는 이미지가 고양이인지 개이지만, 우리가 어떤 것인지 모르는 경우이고, 두번째 예제는 결과가 실제로 임의로 일어나는 이벤트일 수도 있습니다. 즉, 확률이란 우리의 확실성에 대한 사고를 하기 위한 유연한 언어이며, 다양한 경우에 효과적으로 적용될 수 있습니다. 2.6.1. 기초 확률 이론¶ 주사위를 던져서 다른 숫자가 아닌 1일 나오는 확률이 얼마나 되는지 찾는 경우를 생각해보겠습니다. 주사위가 공정하다면, 모든 6개 숫자들, \(\mathcal{X} = \{1, \ldots, 6\}\), 은 일어날 가능성이 동일합니다. 학술 용어로는 “1은 확률 \(\frac{1}{6}\) 로 일어난다”라고 말합니다. 공장에서 막 만들어진 주사위에 대해서 우리는 이 비율을 알지 못할 수 있고, 주사위가 공정한지 확인해야할 필요가 있습니다. 주사위를 조사하는 유일한 방법은 여러 번 던져보면서 결과를 기록하는 것입니다. 주사위를 던질 때마다, 우리는 \(\{1, 2, \ldots, 6\}\)에 하나의 숫자를 얻게 되고, 이 결과들이 주어지면, 각 숫자들이 일어날 수 있는 확률을 조사할 수 있습니다. 가장 자연스러운 방법은 각 숫자들이 나온 횟수를 전체 던진 횟수로 나누는 것입니다. 이를 통해서 우리는 특정 이벤트에 대한 확률을 추정 합니다. 큰 수의 법칙(the law of large numbers)에 따라, 던지는 횟수가 늘어날 수록 이 추정은 실제 확률과 계속 가까워집니다. 더 자세한 논의를 하기 전에, 실제로 실험을 해보겠습니다. 우선 필요한 패키지들을 import 합니다. [1]: import mxnet as mx from mxnet import nd 다음으로는 주사위를 던지는 것을 해야합니다. 통계에서는 확률 분포에서 샘플을 뽑는 것을 샘플링 이라고 합니다. 연속되지 않은 선택들에 확률이 부여된 분포를 우리는 다항(multinomial) 분포라고 합니다. 분포(distribution) 에 대한 공식적인 정의는 다음에 다루겠고, 지금은 분포를 이벤트들에 확률을 할당하는 것 정도로 생각하겠습니다. MXNet에서 nd.random.multinomial 함수를 이용하면 다항 분포에서 샘플을 추출할 수 있습니다. [2]: probabilities = nd . ones ( 6 ) / 6 nd . random . multinomial ( probabilities ) [2]: [3] 여러 샘플을 뽑아보면, 매번 임의의 숫자를 얻는 것을 확인할 수 있습니다. 주사위의 공정성을 추정하는 예제에서 우리는 같은 분포에서 많은 샘플을 추출하기를 원합니다. Python의 for loop을 이용하면 너무 느리기 때문에, random.multinomial 이 여러 샘플을 한번째 뽑아주는 기능을 이용해서 우리가 원하는 모양(shape)의 서로 연관이 없는 샘플들의 배열을 얻겠습니다. [3]: print ( nd . random . multinomial ( probabilities , shape = ( 10 ))) print ( nd . random . multinomial ( probabilities , shape = ( 5 , 10 ))) [3 4 5 3 5 3 5 2 3 3] [[2 2 1 5 0 5 1 2 2 4] [4 3 2 3 2 5 5 0 2 0] [3 0 2 4 5 4 0 5 5 5] [2 4 4 2 3 4 4 0 4 3] [3 0 3 5 4 3 0 2 2 1]] 이제 주사위를 던지는 샘플을 구하는 방법을 알았으니, 100번 주사위를 던지는 시뮬레이션을 해서, 각 숫자들이 나온 횟수를 카운팅합니다. [4]: rolls = nd . random . multinomial ( probabilities , shape = ( 1000 )) counts = nd . zeros (( 6 , 1000 )) totals = nd . zeros ( 6 ) for i , roll in enumerate ( rolls ): totals [ int ( roll . asscalar ())] += 1 counts [:, i ] = totals 1000번을 던져본 후에 최종 합계를 확인합니다. [5]: totals / 1000 [5]: [0.167 0.168 0.175 0.159 0.158 0.173] 결과에 따르면, 모든 숫자 중에 가장 낮게 추정된 확률은 약 \(0.15\) 이고, 가장 높은 추정 확률은 \(0.188\) 입니다. 공정한 주사위를 사용해서 데이터를 생성했기 때문에, 각 숫자들은 \(1/6\) 즉 \(0.167\) 의 확률을 갖는다는 것을 알고 있고, 예측도 매우 좋게 나왔습니다. 시간이 지나면서 이 확률이 의미 있는 추정치로 어떻게 수렴하는지를 시각해 볼 수도 있습니다. 이를 위해서 우선은 (6, 1000) 의 모양(shape)을 갖는 counts 배열을 살펴봅시다. 1000번을 수행하는 각 단계마다, counts 는 각 숫자가 몇 번 나왔는지를 알려줍니다. 그렇다면, counts 배열의 \(j\) 번째 열의 그때까지 던진 총 횟수로 표준화해서, 그 시점에서의 추정 확률 current 를 계산합니다. counts 객체는 다음과 같습니다. [6]: counts [6]: [[ 0. 0. 0. … 165. 166. 167.] [ 1. 1. 1. … 168. 168. 168.] [ 0. 0. 0. … 175. 175. 175.] [ 0. 0. 0. … 159. 159. 159.] [ 0. 1. 2. … 158. 158. 158.] [ 0. 0. 0. … 173. 173. 173.]] 던진 총 횟수로 표준화 하면, [7]: x = nd . arange ( 1000 ) . reshape (( 1 , 1000 )) + 1 estimates = counts / x print ( estimates [:, 0 ]) print ( estimates [:, 1 ]) print ( estimates [:, 100 ]) [0. 1. 0. 0. 0. 0.] [0. 0.5 0. 0. 0.5 0. ] [0.1980198 0.15841584 0.17821783 0.18811882 0.12871288 0.14851485] 결과에서 보이듯이, 주사위를 처음 던진 경우 하나의 숫자에 대한 확률이 \(1.0\) 이고 나머지 숫자들에 대한 확률이 \(0\) 인 극단적인 예측을 하지만, 100번을 넘어서면 결과가 상당히 맞아 보입니다. 플롯을 그리는 패키지 matplotlib 을 이용해서 이 수렴 과정을 시각화 해봅니다. 이 패키지를 아직 설치하지 않았다면, install it 를 참고해서 지금 하세요. [8]: % matplotlib inline from matplotlib import pyplot as plt from IPython import display display . set_matplotlib_formats ( ‘svg’ ) plt . figure ( figsize = ( 8 , 6 )) for i in range ( 6 ): plt . plot ( estimates [ i , :] . asnumpy (), label = ( “P(die=” + str ( i ) + “)” )) plt . axhline ( y = 0.16666 , color = ‘black’ , linestyle = ‘dashed’ ) plt . legend () plt . show () 각 선은 주사위의 숫자 중에 하나를 의미하고, 1000번 주사위 던지기를 수행하면서 각 횟수마다 각 숫자가 나올 확률의 추정값을 나타내는 그래프입니다. 검은 점선은 진짜 확률(true probability, \(1/6\))을 표시합니다. 횟수가 늘어가면 선들이 진짜 확률에 수렴하고 있습니다. 주사위 던지기 예를 통해서 확률 변수(random variable)라는 개념을 소개했습니다. 여기서 \(X\) 로 표현할 확률 변수는 어떤 양이 될 수 있고, 결정적이지 않을 수 있습니다. 확률 변수는 여러 가능성들의 집합에서 하나의 값을 나타낼 수도 있습니다. 집합은 괄호를 이용해서 표현합니다. 예를 들면, \(\{\mathrm{cat}, \mathrm{dog}, \mathrm{rabbit}\}\) 입니다. 집합에 속한 아이템들은 원소(element) 라고 하고, 어떤 원소 \(x\) 가 집합 \(S\) 에 속한다 라고 하면 표기는 \(x \in S\) 로 합니다. 기호 \(\in\) 는 “속한다”라고 읽고, 포함 관계를 표현합니다. 예를 들어, \(\mathrm{dog} \in \{\mathrm{cat}, \mathrm{dog}, \mathrm{rabbit}\}\) 입니다. 주사위 던지는 것의 경우, 확률 변수 \(X \in \{1, 2, 3, 4, 5, 6\}\) 입니다 연속적이지 않은 확률변수(예를 들어 주사위의 6면)와 연속적인 확률변수(예를 들어 사람의 몸무게나 키) 사이에는 미묘한 차이점이 있다는 것을 기억하세요. 두 사람의 키가 정확하게 같은지를 묻는 경우는 드물 것입니다. 아주 정확한 측정 방법이 있어서 이를 적용한다면, 이 세상에 키가 완전하게 같은 사람 두사람이 없습니다. 사실, 적당히 정교한 측정을 하는 경우에도 아침에 일어났을 때의 키와 밤에 잠자기 전에 잰 키는 다르게 나옵니다. 즉, 어떤 사람의 키가 \(2.00139278291028719210196740527486202\) 미터일 확률을 물어보는 것은 의미가 없습니다. 전체 인구에 대해서도 이 확률은 거의 \(0\) 입니다. 따라서, 어떤 사람의 키가 어느 구간(예를 들면 1.99 와 2.01 미터 사이)에 속하는지를 묻는 것이 더 의미가 있습니다. 이런 경우들에는 우리는 어떤 값을 밀도(density)로 볼 가능성을 정량화 합니다. 정확하게 2.0미터인 키에 대한 확률은 없지만, 밀도는 0이 아닙니다. 서로 다른 두 키의 구간에 대해서는 확률값이 0이 아닌 수가 됩니다. 기억해 두어야할 몇가지 중요한 확률에 대한 공리(axiom)들이 있습니다. 어떤 이벤트 \(z\) 에 대해서, 확률은 절대로 음수가 아닙니다. 즉, \(\Pr(Z=z) \geq 0\)

에 대해서, 확률은 절대로 음수가 아닙니다. 즉, 두 이벤트 \(Z=z\) 과 \(X=x\) 에 대해서, 두 이벤트의 합집합(union)에 대한 확률은 각 이벤트의 확률의 합보다 클 수 없습니다. 즉, \(\Pr(Z=z \cup X=x) \leq \Pr(Z=z) + \Pr(X=x)​\) .

과 에 대해서, 두 이벤트의 합집합(union)에 대한 확률은 각 이벤트의 확률의 합보다 클 수 없습니다. 즉, . 어떤 확률 변수에 대해서, 모든 값들에 대한 확률의 합은 항상 1입니다. 즉, \(\sum_{i=1}^n \Pr(Z=z_i) = 1\) .

. 서로 겹치지 않는 두 사건, \(Z=z\) 과 \(X=x\) , t,에 대해서, 둘 중에 한 사건이 일어날 확률은 각 사건의 확률의 합과 같습니다. 즉, \(\Pr(Z=z \cup X=x) = \Pr(Z=z) + \Pr(X=x)\) .

2.6.2. 여러 확률 변수 다루기¶ 종종 하나 이상의 확률 변수를 동시에 다룰 필요가 생깁니다. 질병과 증상의 관계를 모델링하는 경우를 들 수 있습니다. 질병과 증상이 주어졌을 때, 예를 들면 ‘독감’과 ’기침’, 두개는 어떤 확률로 환자에게 일어날 수도 일어나지 않을 수 있습니다. 이 둘에 대한 확률이 작기를 기대하지만, 더 좋은 의료 처방을 할 수 있도록 확률과 둘 사이의 관계를 예측하고자 합니다. 더 복잡한 예로, 수백만 픽셀로 이루어진 이미지를 들어보겠습니다. 즉, 수백만 확률 변수가 존재합니다. 많은 경우에 이미지들은 이미지에 있는 객체를 지칭하는 레이블을 갖습니다. 이 레이블도 확률 변수로 생각할 수 있습니다. 더 나아가서는, 위치, 시간, 구경(apeture), 초점 거리, ISO, 초점, 카메라 종류 등 과 같은 모든 메타 데이터를 확률 변수로 생각할 수도 있습니다. 이 모든 것은 연관되어 발생하는 확률 변수들입니다. 여러 확률 변수를 다룰 때 몇가지 중요한 것들이 있습니다. 첫번째는 교차 확률 분포 \(\Pr(A, B)\) 입니다. 두 원소 \(a\) 와 \(b\) 가 주어졌을 때, 교차 확률 분포는 동시에 \(A=a\) 이고 \(B=b\) 일 확률이 얼마인지에 대한 답을 줍니다. 임의의 값 \(a\) 와 \(b\) 에 대해서, \(\Pr(A,B) \leq \Pr(A=a)\) 이라는 사실은 쉽게 알 수 있습니다. \(A\) 와 \(B\) 가 일어났기 때문에, \(A\) 가 발생하고, \(B\) 또한 발생해야 합니다. (또는 반대로). 즉, \(A\) 와 \(B\) 가 동시에 일어나는 것은 \(A\) 와 \(B\) 가 별도로 일어나는 것보다는 가능성이 낮습니다. 이 사실로 흥미로운 비율을 정의할 수 있습니다. 즉, \(0 \leq \frac{\Pr(A,B)}{\Pr(A)} \leq 1\). 우리는 이것을 조건부 확률(conditional probability) 이라고 부르며, \(\Pr(B | A)\) 로 표현합니다. 다시 말하면, \(A\) 가 일어났을 때 \(B\) 가 일어날 확률입니다. 조건부 확률의 정의를 이용하면, 확률에서 가장 유용하고 유명한 방정식을 도출할 수 있는데, 이것이 바로 베이즈 이론(Bayes’ theorem)입니다. 이를 도출하는 방법으로 \(\Pr(A, B) = \Pr(B | A) \Pr(A)\) 로부터 출발합니다. 대칭성을 적용하면, \(\Pr(A,B) = \Pr(A | B) \Pr(B)\) 이 돕니다. 조건 변수들 중 하나에 대해서 풀어보면 다음 공식을 얻게 됩니다. \[\Pr(A | B) = \frac{\Pr(B | A) \Pr(A)}{\Pr(B)}\] 어떤 것으로부터 다른 어떤 것을 추론(즉 원인과 효과)하고자 하는데, 반대 방향에 대한 것만 알고 있을 경우에 아주 유용합니다. 주변화(marginalization)는 이것이 작동하게 만드는데 아주 중요한 연산입니다. 이 연산은 \(\Pr(A,B)\) 로 부터 \(\Pr(A)\) 와 \(\Pr(B)\) 를 알아내는 연산입니다. \(A\) 가 일어날 확률은 모든 \(B\)에 대한 교차 확률(joint probability)의 값으로 계산됩니다. 즉, \[\Pr(A) = \sum_{B’} \Pr(A,B’) \text{ and } \Pr(B) = \sum_{A’} \Pr(A’,B)​\] 점검해야 할 아주 유용한 특성은 종속과 독립 입니다. 독립은 하나의 사건의 발생이 다른 사건의 발생에 영향을 주지 않는 것을 의미합니다. 위 경우에는 \(\Pr(B | A) = \Pr(B)\) 를 의미합니다. 그 외의 경우들은 \(A\) 와 \(B\)가 종속적이라고 합니다. 주사위를 두 번 연속으로 던지는 것은 독립적이나, 방의 전등 스위치의 위치와 방의 밝기는 그렇지 않습니다. (이 둘이 완전히 결정적이지는 않습니다. 왜냐하면, 전구가 망가질 수도 있고, 전원이 나갈 수도 있고, 스위치가 망가질 경우 등이 있기 때문입니다.) 그럼 배운 것을 테스트해보겠습니다. 의사가 환자에게 AIDS 테스트를 하는 것을 가정하겠습니다. 이 테스트는 상당히 정확해서, 환자가 음성일 경우 이를 틀리게 예측하는 확률이 1%이고, 환자가 양성일 경우 HIV 검출을 실패하지 않습니다. \(D\) 는 진단 결과를 \(H\) 는 HIV 상태를 표기합니다. \(\Pr(D | H)\) 결과를 표로 만들어보면 다음과 같습니다. 결과 HIV 양성 HIV 음성 테스트 결과 – 양성 1 0.01 테스트 결과 – 음성 0 0.99 같은 열의 값을 더하면 1이나, 행으로 더하면 그렇지 않습니다. 그 이유는 조건부 확률도 합이 확률처럼 1이여야하기 때문입니다. 테스트 결과가 양성일 경우 환자가 AIDS에 결렸을 확률을 계산해보겠습니다. 당연하게 도 이는 질병이 얼마나 일반적인가에 따라 달라집니다. 인구의 대부분이 건강하다고 가정하겠습니다. 즉 \(\Pr(\text{HIV positive}) = 0.0015\). 베이즈 이론(Bayes’ Theorem)을 적용하기 위해서 우리는 다음을 결정해야합니다. \[\begin{split}\begin{aligned} \Pr(\text{Test positive}) =& \Pr(D=1 | H=0) \Pr(H=0) + \Pr(D=1 | H=1) \Pr(H=1) \\ =& 0.01 \cdot 0.9985 + 1 \cdot 0.0015 \\ =& 0.011485 \end{aligned}\end{split}\] 따라서, 우리가 얻는 것은 다음과 같습니다. \[\begin{split}\begin{aligned} \Pr(H = 1 | D = 1) =& \frac{\Pr(D=1 | H=1) \Pr(H=1)}{\Pr(D=1)} \\ =& \frac{1 \cdot 0.0015}{0.011485} \\ =& 0.131 \end{aligned}\end{split}\] 이 결과는 99% 정확도로 테스트 결과가 양성으로 나올지라도 환자가 실제로 AIDS에 걸렸을 확률은 13.1% 밖에 되지 않는 다는 것을 의미입니다. 이 결과에서 보듯이, 통계는 매우 직관적이지 않을 수 있습니다.

2.6.3. 조건부 독립성¶ 그렇다면, 환자가 이렇게 무서운 결과를 받았을 때 어떻게 해야할까요? 아마도 환자는 의사에게 테스트를 다시 해봐달라고 요청할 것입니다. 두번째 테스트는 다르게 나왔다고 하겠습니다. (즉, 첫번째 만큼 좋지 않습니다.) 결과 HIV 양성 HIV 음성 테스트 결과 – 양성 0.98 0.03 테스트 결과 – 음성 0.02 0.97 안타깝게도 두번째 테스트 역시 양성으로 나오고 있습니다. 베이즈 이론(Bayes’ Theorom)을 적용하기 위한 필요한 확률값들을 계산해봅니다. \(\Pr(D_1 = 1 \text{ and } D_2 = 1) = 0.0003 \cdot 0.9985 + 0.98 \cdot 0.0015 = 0.00176955\)

\(\Pr(H = 1 | D_1 = 1 \text{ and } D_2 = 1) = \frac{0.98 \cdot 0.0015}{0.00176955} = 0.831\) 즉, 두번째 테스트 결과는 좋지 않다는 것에 더 확신하게 만듭니다. 두번째 결과는 첫번째 보다 덜 정확함에도 불구하고, 예측 결과를 더 향상시켰습니다. 그렇다면, 첫번째 테스트를 두번하지 않을까요? 결국, 첫번째 테스트가 더 정확했습니다. 두번째 테스트가 필요한 이유는 첫번째 테스트를 독립적으로 확인하기 위함입니다. 즉, \(\Pr(D_1, D_2 | H) = \Pr(D_1 | H) \Pr(D_2 | H)\) 이라는 암묵적인 가정을 했습니다. 통계학에서는 이런 확률 변수를 조건에 독립적이라고 하며, \(D_1 \perp\!\!\!\perp D_2 | H\) 라고 표현합니다.

2.6.4. 요약¶ 이 절에서 우리는 확률, 독립, 조건 독립, 그리고 기본적인 결론을 도출하는데 이것들을 어떻게 사용하는지를 알아봤습니다. 이 개념들은 아주 유용합니다. 다음 절에서는 나이브 베이즈 분류기(Naive Nayes)를 사용한기본적인 예측을 하는데 이 개념들이 어떻게 사용되는지 살펴보겠습니다.

2.6.5. 문제¶ \(\Pr(A)\) 과 \(\Pr(B)\) 확률로 두 사건이 주어졌을 때, \(\Pr(A \cup B)\) 와 \(\Pr(A \cap B)\) 의 상한과 하한을 구하세요. 힌트 – Venn Diagram을 사용하는 상황을 그려보세요. 연속적인 사건, 즉 \(A\) , \(B\) , \(C\) , 들이 있는데, \(B\) 는 \(A\) 에만 의존하고, \(C\) 는 \(B\) 에만 의존한다고 가정합니다. 이 경우 교차 확률(joint probability)를 간단하게 할 수 있을까요? 힌트 – 이는 Markov Chain 입니다.

딥러닝을 위한 수학, 확률과 통계

This site requires JavaScript. Here are the instructions how to enable JavaScript in your web browser.

수학 공부가 쓸모 있을까?

우리 생활에서 인공지능은 다양한 분야에 활용된다. 기업 생산과 효율을 높이고, 개인의 재산과 투자를 관리해 준다. 제조업 환경의 안정성을 높이고, 정보 당국은 테러리스트를 찾아낸다. 가스 유출 및 전기 공급 상태를 탐지하고 질병을 예측할 뿐 아니라, 사진과 영상을 분석해 보안을 높여준다. 좀 더 직접적으로 체감할 수 있는 영역으로 들어오면, 인공지능 알고리즘은 내가 좋아하는 영화를 추천해주고, 음악을 찾아주며, 취향에 맞는 의류 쇼핑몰로 이끌어준다. 나열하자면 끝없이 광범위하고 깊게 우리 일상에 들어와 있다. 이에 맞춰 요즘 개발자라는 직업의 인기가 높아지고, 인공지능 관련 분야는 독보적으로 관심을 받고 있다. 우리 생활에서 인공지능은 다양한 분야에 활용된다. 기업 생산과 효율을 높이고, 개인의 재산과 투자를 관리해 준다. 제조업 환경의 안정성을 높이고, 정보 당국은 테러리스트를 찾아낸다. 가스 유출 및 전기 공급 상태를 탐지하고 질병을 예측할 뿐 아니라, 사진과 영상을 분석해 보안을 높여준다. 좀 더 직접적으로 체감할 수 있는 영역으로 들어오면, 인공지능 알고리즘은 내가 좋아하는 영화를 추천해주고, 음악을 찾아주며, 취향에 맞는 의류 쇼핑몰로 이끌어준다. 나열하자면 끝없이 광범위하고 깊게 우리 일상에 들어와 있다. 이에 맞춰 요즘 개발자라는 직업의 인기가 높아지고, 인공지능 관련 분야는 독보적으로 관심을 받고 있다.

하지만, 이와 별개로 수학을 말해보자면 어떤가? 수학 공부는 어떤 의미가 있을까? 시험기간이 되면, ‘내가 수학을 왜 공부해야 해?’라는 친구들의 짜증 섞인 불평들을 자주 듣곤 한다. 수학을 공부하는 이유에 대해 말해보라고 하면 머릿속에 이것저것 떠오르지만 분명하게 ‘~이래서 우린 수학을 공부해야 해!’라고 말할 만큼의 확실한 이유는 생각나지 않아 이내 입을 다물게 되어 버린다. 우리는 아마 ‘과학의 기초가 되는 수학’에 대한 의무감과 문제 풀이를 통한 쾌감 때문에 수학 공부에 긴 시간을 보내고 있을 것이다. 쓸모나 목적성이 있어서 공부하는 것 보다는 필수적으로 끊임없이 공부해야만 하는 학문 그 자체로 느껴질 것이다. 이런 막연함 속에서 이 책은 수학 공부의 가치와 의미를 일깨워준다.

“세상을 바꾸는 AI 뒤에는 수학이 있다.”

이 책의 원제목은 이다. AIQ에서 Q는 ‘quotient’의 약자로, AIQ의 의미를 해석하자면 인공지능 ‘AI의 지수’이다. 제목처럼, 책에서는 인간과 기계가 어떻게 함께 성장해 왔는지, 또 어떻게 성장해야 나가야 하는지에 대해서 다루고 있다. 책에서는 인공지능 원리와 관련해 7가지로 이야기를 나누어 수학이 어떤 방식으로 이에 적용되는지 설명한다.

나는 여러 가지 연구 활동들을 통해 선형대수를 기초로 한 통신 수학에 대해 배웠는데, 그동안 배웠던 기초적인 이론들과, 추가로 그 이론들이 실제로 적용되는 예시들도 많이 나왔다. 그 중 가장 인상적이었던 두 가지는 ‘베이즈 규칙(Bayes’ theorem)’과 조건부 확률이었는데, 통신수학에 대한 연구 활동들을 하면서 비슷한 내용을 다뤄 보았던 적이 있었기 때문에 더 기억에 남았던 것 같기도 하다.

먼저, 베이즈 규칙이란 새로운 정보가 입수되었을 때 기존 확률을 사후 확률로 바꿔주는 것이다. 예를 들어, 자율주행 자동차에도 베이즈 규칙이 적용된다. GPS로만 차의 위치를 알기는 힘들기 때문에 차선이나 교차로 등에 대한 ‘마음속 지도’를 그린다. 그리고 여러 번 그 길을 다니고, 그 지도를 갱신해 나가면서 그 환경 속에 있는 자신의 위치를 추론한다. 환경이 빽빽한 격자망으로 이루어졌다고 가정하고 높은 확률의 존재 지점을 더 진한 색으로 배치한다. 하지만 실제 경험하지 않은, 사전적 믿음이기 때문에 맞지 않을 수 있다. 그러나 실제 경험 후에 데이터를 얻으면 업데이트한 격자망 지도에서는 사후 확률에 따라 수정된 믿음의 결과를 얻게 된다. 언뜻 보면 불확실해 보이고 시행착오가 많아 보이지만, 수많은 데이터 수집으로 업데이트되는 시스템이기에 결국 최종 결론의 확률은 높아지게 된다. 결국 확률을 지도에 ‘색’으로 시각화해서 ‘나는 어디에 있는가?’에 대한 답을 찾는다. 이 방법으로 제2차 세계대전 당시 사라진 핵탄두 미사일을 보유한 잠수함과 수소폭탄을 되찾을 수 있었다고 한다. 베이즈 규칙은 결국 딥러닝과도 깊은 연관성을 갖게 된다. 딥러닝, 즉 머신러닝 모델들이 커질수록 더 많은 데이터들을 해석하게 되는데, 데이터가 많이질수록 해석하기에는 더 어려워진다. 결국 모델들이 정확한 예측을 하지 못하는 경우들이 발생되어, 베이즈 규칙을 이용한 ‘베이지안 딥러닝’이라는 개념을 도입시켰다. 기존과는 달리, 베이지안 관점에서는 확률 자체를 불확실성으로 바라보아 오직 참 값의 확률만을 찾는 것이 아니라 불확실성을 내포한 확률 분포를 찾아 보다 더 현실과 가까운 모델링을 가능케 한다.

또, 조건부 확률은 우리가 생활 속에서 매일 만나는 수학이다. 우리는 평소 유튜브, 스포티파이, 넷플릭스 등 여러 SNS를 사용한다. 그 속에서 개인 또는 집단의 데이터가 끊임없이 공급된다. 사실 인스타그램을 통해 우리는 매일 빅데이터로 인한 확률과 통계를 경험한다. 이 데이터를 분석해 우리를 이끄는 알고리즘으로 인해 다들 놀란 경험이 있을 것이다. 나의 취향을 읽는 이런 SNS는 나에게 맞춤 서비스를 제공해 준다. 예를 들어, 나는 대부분 유튜브로 노래를 듣거나 무대 영상을 보기 때문에 유튜브 알고리즘으로 인해 거의 음악과 관련된 영상이 화면을 메운다. 하지만 유튜브 게임 영상을 많이 보는 친구는 게임 영상이 대부분 추천된다. 또, 넷플릭스는 사용자의 취향을 정확히 캐치 하도록 ‘개인화’되어 있다. 여기서 쓰이는 것은 ‘조건부 확률’이다. A라는 영화를 좋아할 확률 중에 B라는 영화를 좋아할 확률이라는 ‘조건부 확률’을 활용하여 방대한 데이터 집합에서 고객의 특성을 취합함으로써 맞춤형 마케팅으로 성공을 이루었다. 하지만 각각의 조건부 확률을 고려하기에 넷플릭스의 콘텐츠는 너무 방대하여 ‘누락’이라는 문제가 발생한다. 막대한 양의 켄텐츠 중 보는 사람이 거의 없는 영화가 대부분이라서, 단 한 명의 시청으로 영화의 평가가 정해지는 오류도 있다. 또, 넷플릭스는 한 사람이 액션 영화와 철학 영화를 동시에 좋아할 때 ‘조합 확신’이라는 방법도 사용한다. 영화마다 평가 등급을 예측하기 위해서 ‘오프셋’이라는 개념을 도입했다. 인기 있는 영화에는 양의 오프셋을 부여하고, 인기 없는 영화에는 음의 오프셋을 부여해서 <예측된 평가 등급=전체 평균+영화 오프셋+이용자 오프셋+이용자-영화 상호작용>의 값을 얻어낸다. 가끔 ‘넷플릭스에서 어떤 시리즈에 막대한 돈을 지원해 주었다’라는 기사를 보게 되는데, 이 모든 것은 확률의 계산을 통해서 예측된 결과로 나름의 계획적인 지원이라고 볼 수 있다.

우리는 생활 속 많은 순간에서 통계와 확률을 마주한다. 어떻게 보면 동전 뒤집기처럼 불확실해 보인다. 그래프를 보면 다음 순간에 어떻게 될지 알 수 없는데 확률만으로 확신할 수 없기 때문이다. 하지만 인공지능 알고리즘을 통해 ‘스스로’ 무엇을 할지 알아내고 무슨 명령을 따라야 하는지 학습해 배우는 과정으로 확률을 높인다. 이 책은 이런 인공지능에 주축이 되는 수학을 이야기하기 위해 우리가 흔히 접하는 넷플릭스나 유튜브의 알고리즘 이야기부터 시작해 흥미를 끈다. 또한, 우리가 인공지능과는 거리가 멀다고 생각한 시대 속 나이팅게일이 표준 의료기록 양식을 만들어 의료 데이터들을 수집하고 의료 시스템의 출발을 마련한 이야기까지 포괄적으로 다룬다. 그 속에서 통계학, 응용수학의 특징을 다루고, 논리적이고 합리적인 수학적 사고방식이 어떻게 인공지능에 연계되어 작동하는지 그 메커니즘을 설명해 주고 있다. 또한, 이러한 편리한 시스템 속에서 추천 알고리즘의 단점, 맞춤형 마케팅을 악용하는 사례, 데이터 수집의 프라이버시 문제, 해킹 및 법률적 문제 등도 살펴보고, 추천 시스템을 책임감 있게 사용할 문화적이고 법적 감독 체계를 만들어야 함에 대해서도 깨닫게 한다. 알 수 없는 미래를 향해 우리는 일상 항해 방향을 잡는다. 이 책을 통해 수학은 이 불확실성을 가장 명확하게 해주는 도구이자 수단임을 배웠다. 또한, 인공지능을 다루기 위해서 인간만이 사고하고 해결할 수 있는 수학의 영역이 존재한다는 것을 알았다. 이에 수학 공부의 쓸모와 의미를 찾고, 그 불확실성을 명확히 하는 주역이 되고자 방향키를 잡아본다.

불확실한 미래에서 보통 사람들도 답을 얻는 방법

책 『수학의 쓸모』

자율주행 자동차의 딥러닝

김아리 학생기자 | Mathmatics & Computer Sci. | 에세이

참고자료

책 『수학의 쓸모』

첨부 이미지 출처

[1] yes24.com/Product/Goods/89607340

[2] https://www.youtube.com/watch?v=QKg5lF_NtC4 (장면캡쳐)

[딥러닝 입문 5] 확률·통계의 기초(1

반응형

5. 확률 · 통계의 기초

여기서는 기계학습에 이용하는 확률, 통계의 개념과 용어를 설명합니다.

세상에는 ‘무작위’로 일어나는 사건이나 배경의 메커니즘을 모르기 때문에 무작위로 취급해야만 하는 사건이 존재합니다. 이러한 임의의 사건을 이론적으로 취급하자면 사건 자체나, 사건 사이의 관계를 수학적으로 설명할 수 있어야 합니다. 확률론에서는 랜덤 하게 발생한 일을 사건(event)이라고 합니다(정확한 정의는 생략합니다).

여기서는 먼저 사건을 설명하는 도구로서 확률분포를 도입하고 이와 관련된 개념(주변 확률, 조건부 확률, 확률 변수의 독립)을 설명합니다. 또한 이러한 개념을 이용하여 베이즈의 정리를 설명합니다. 베이즈 정리에 의하면, 어떤 사건이 관측되었을 때, 그 원인이 되는 사건이 일어난 확률을 계산할 수 있습니다. 다음은 확률분포 중에서 관측 데이터에 적합한 최적 확률분포를 선택하는 방법인 최대사후확률추정치(MAP 추정)을 소개합니다. 기계 학습의 맥락에서, 이들은 훈련모델의 ‘최적’ 파라미터를 결정하도록 대응합니다. 마지막으로, 기계 학습에서 자주 사용되는 통계 용어(평균, 분산, 표준편차, 상관계수 등)를 설명합니다.

5.1 확률 · 통계 및 기계학습의 관계

기계학습 시스템이 학습에 사용하는 것은 제한된 수의 관측 데이터지만, 대부분의 기계학습 태스크에서 원하는 것은 주어진 관측 데이터 뒤에 있는 보편성과 법칙을 파악하고, 미래의 사건에 대한 예측을 실시하는 것입니다. 기계학습은 그것을 달성하기 위해 통계학의 개념을 이용합니다.

통계학은 어떤 집단 전체에 대하여 조사하기 어려운 경우 집단에서 무작위 샘플링을 실시하여 원래 집단의 특성을 추정합니다. 수중에 있는 관측 데이터를 어떤 법칙에 의해 얻을수 있는 확률적인 샘플로 간주하여, 기계학습과 통계학을 연결시킵니다. 통계학을 이용하는 것으로, 어느 데이터가 미지의 데이터 원천에서 발생하기 쉬운지, 데이터가 틀렸는지, 어떤 방법으로 모델을 학습시키면 좋을지 등의 문제를 객관적으로 판단할 수 있도록 합니다. 또한 학습시킨 모델의 성능에 대한 이론적 보증도 통계에 의해 가능합니다. 이러한 기계학습의 통계적 측면을 강조할 경우를 ‘통계적 기계학습’이라고 합니다.

5.2 확률 변수와 확률 분포

현대 수학에서 널리 이용되는 ‘확률’의 개념을 공식화하기 위해 다양한 준비가 필요하므로, 이 문서에서는 ‘확률’이라는 말을 수학적으로 엄밀하게 정의하지는 않습니다. 대신 다음과 같이 생각합시다. 어느 대상으로 하는 현상에서 다양한 이벤트를 얻을 때, 각각의 이벤트마다 그것이 ‘어느 정도 일어날 것인가’라는 정도를 생각한다면, 확률은 그 정도를 말하는 것으로 합시다. 그리고 그 확률에 따라 다양한 값을 취할 수 있는 확률 변수(random variable)를 알아봅시다. 확률 변수는 이름에 ‘변수’라고 붙어 있습니다 만, ‘이벤트’를 ‘수치’로 변환하는 함수로 생각하면 쉽게 이해할 수 있습니다. 예를 들어, “동전을 던져 앞면이 나온다”는 이벤트를 ‘1’이라는 ‘수치’로 변환하고, “동전을 던져서 뒷면이 나온다”라는 이벤트를 ‘0’이라는 ‘수치’로 변환하는 함수를 생각하면, 이것은 ‘1’또는 ‘0’값 중 하나를 취할 수 있는 확률 변수(주석 1)라는 것입니다.

◇ 주석 1

여기에서는 개념의 설명을 쉽게하기 위해, 이 예와 같이 이산적인 값을 갖는 확률 변수를 고려하고, 특별히 명시하지 않는 이상 연속 값의 확률 변수는 생각하지 않기로 합니다.

그럼 확률적 현상의 예를 생각해 보겠습니다. 어느 찌그러진 주사위가 있어서, “주사위를 던져 x라는 눈이 나왔다”는 사건(주석 2)을 x라는 수치에 대응하는 확률 변수 X가 있다고 합시다. 그리고 이 확률 변수가 취할 수 있는 모든 값이 각각 어떤 확률로 출현하는지를 나타낸 표가 아래와 같습니다.

◇ 주석 2

x 는 1,2,3,4,5,6 중 하나입니다. 즉 x∈{1,2,3,4,5,6}

확률 변수 X값 그 값을 취할 확률 1 0.3 2 0.1 3 0.1 4 0.2 5 0.1 6 0.2

이러한 표를 확률 분포(probability distribution)라고 합니다. 확률 분포에는 중요한 제약이 있으며, 「확률 변수가 취할 수 있는 모든 값의 확률을 모두 더하면 합이 반드시 1이 될 것」 , 「모든 확률은 0이상의 값일 것」 이렇게 두 가지를 항상 충족시켜야 합니다. 위 표의 왼쪽 열의 수치를 실현 값이라고 하며 소문자 x로 나타냅니다. 그리고 오른쪽 열의 각각의 x에 대응하는 확률을 p(x)라고 쓸 수 있습니다. 즉 위의 표에서 p(1)=0.3, p(2)=0.1,…… 입니다. 이 표기법을 사용하면 확률 분포를 가지는 2개의 제약은 다음과 같이 나타낼 수 있습니다.

여기에서 ∑x 는 모든 가능한 x값의 합을 나타내며, 위의 주사위의 예에서는

가 되겠습니다. ∀x는 가능한 x의 모든 값에서, 오른쪽의 조건 ( p(x)≥0 )가 성립한다는 것을 의미합니다.

p(1)=0.3이라는 것은, 확률 변수 X가 1을 취할 확률입니다만, 이것을 p(X=1)=0.3으로 쓰고 있습니다. 위의 p(x)는 확률 변수 X의 존재를 암시적으로 가정하고 p(X=x)를 쉽게 표기한 것, 즉 X라는 확률 변숫값 x를 취하는 확률로 생각할 수 있습니다. 한편, p(X)와 확률 변수만을 인수로 할 경우, 위의 표와 같은 확률 분포를 보입니다.

5.3 결합 분포 · 주변 확률

앞 절에서는 하나의 확률 변수에 대하여 그 분포란 무엇인가와 분포가 가지는 제약에 대해 설명했습니다. 이 절에서는 여러 확률 변수가 등장할 경우에 대해 생각해봅시다.

먼저 구체적인 예를 들어 보면, 2개의 주사위가 있습니다. 각각의 주사위에서 나오는 눈을 2개의 확률 변수 X, Y로 나타냅니다. 이 2개의 주사위를 동시에 흔들어, 첫 번째 주사위 x값을 취하고, 두 번째 주사위 y값을 취하는 사건의 확률은 다음과 같이 표기합니다.

x, y는 모두 1,2,3,4,5,6의 6개의 숫자 중 하나입니다. 예를 들어, “3”과 “5”의 눈이 나올 사건의 확률은

로 표시됩니다. 이와 같이, X=3이 되는 승리하는 Y=5이되는 등 여러 조건을 지정했을 때, 그들이 모두 동시에 성립할 확률을 동시 확률 (joint probability) 이라고합니다.

그럼 다음으로, 2개의 주사위를 별도로 살펴봅시다. 예를 들어, “첫 주사위 눈이 3″이라는 사건이 일어날 확률 p(X=3)은 첫 번째 주사위가 3이고, 두 번째 주사위가 1일 경우 / 2일 경우 / 3일 경우 /… / 6일 경우, 이렇게 6개의 패턴이 발생할 확률을 모두 더한 것입니다. 즉,

로 표시할 수 있습니다. 이때, ∑y는 “Y의 취할 수 있는 모든 값 y에 대한 합”입니다. 이것을 “(두 번째 주사위 값이 뭐든) 첫 번째 주사위 값이 x일 확률”로 일반화하면 다음과 같이 됩니다.

마찬가지로, “(첫 번째 주사위가 뭐든) 두 번째 주사위 y일 확률”은 첫 번째 주사위에 대해 가능한 모든 값의 확률의 합을 취하면 좋기 때문에,

가 됩니다. 이처럼 동시 확률이 주어졌을 때, 주목하지 않는 쪽의 확률변수가 취할 수 있는 모든 값에 대해 동시 확률을 계산하고 그 합을 취하는 것을 주변화(marginalization)라고 부르며, 결과적으로 얻는 확률을 주변 확률(marginal probability)이라고 합니다. 또한 주변 확률을 그 주목하고 있는 확률 변수가 취할 수 있는 모든 값에 대하여 나열하는 것을 주변 확률분포(marginal probability distribution)라고 합니다. 또한, 위의 예처럼 두 확률 변수의 동시 확률을 생각할 때, 취할 수 있는 모든 조합의 확률을 나열하는 것을 결합 분포(joint distribution)라고 합니다.

여기에서 2개의 주사위의 결합 분포표는 커져버리기 때문에 더 간단한 예로, 앞면이 나올 확률과 뒷면이 나올 확률이 다른 2개의 동전을 생각해 봅시다. 이 2개의 동전을 동시에 던질 때의 앞뒤 조합의 결합 분포가 다음과 같다고 합시다.

Y = 앞면 Y = 뒷면 X = 앞면 1 / 5 2 / 5 X = 뒷면 1 / 5 1 / 5

여기에서 첫 번째 동전의 양면을 나타내는 확률 변수를 X, 두 번째 동전의 양면을 나타내는 확률 변수를 Y로 하고 있습니다. 2개의 동전이 모두 앞면이 될 확률은 p(X=앞면,Y=앞면)=1/5 입니다.

그럼, 이 표 안의 숫자를 행별로 합계를 내 봅시다. 첫 번째 줄은

입니다. 이것은

(주석 3)을 계산하는 것이므로, 주변화에 의해 p(X=앞)라는 주변 확률을 추구하는 것과 동일합니다.

◇ 주석 3

y는 두 번째 동전이 취할 수 있는 상태로, 이 경우 ‘앞’과 ‘뒤’의 둘 중 하나.

마찬가지로, 첫 번째 열 값을 합계하여 보면, 이번에는

(주석 4)를 계산하는 것이므로, 주변화에 의해 P(Y=앞)이라는 주변 확률을 계산하는 것입니다.

◇ 주석 4

x는 첫 번째 동전이 취할 수 있는 상태로, 이 경우 ‘앞’과 ‘뒤’의 둘 중 하나.

이렇게 계산된 주변 확률을 위의 결합 분포의 표로 나타내 보겠습니다.

Y = 앞면 Y = 앞면 p(X) X = 앞면 1 / 5 2 / 5 3 / 5 X = 뒷면 1 / 5 1 / 5 2 / 5 p(Y) 2 / 5 3 / 5

이처럼 주변 확률은 종종 동시 분포표로 기술됩니다.

반응형

[톡톡에듀]AI 시대 지배자 되고 싶나, 확률·통계 도사 돼라

요즘 학생들 사이에서 선풍적인 인기를 끌고 있는 “콴다”라는 앱이 있다. 이 앱에서 모르는 문제의 사진을 찍으면 자동으로 정답과 풀이를 제시해준다. 인공지능이 탑재된 덕분이다. ‘콴다’가 놀라운 건 수능/모의고사 기출문제뿐 아니라 시중의 나온 여러 문제집의 문제 풀이까지 보여준다는 점이다. ‘콴다’ 같은 인공지능 학습 앱을 쓰다 보면 여러 생각이 떠오른다. 미래엔 인공지능이 수학 문제를 모두 풀어주니, 수학 공부를 안 해도 되지 않을까?

그러나 많은 전문가는 인공지능 시대가 오더라도 인간의 역할은 중요해질 수밖에 없다고 입을 모은다. 특히 수학을 비롯한 기초 학문은 그 중요도가 더욱 커진다고 한다. AI의 데이터 수집 및 처리 능력은 인간보다 월등히 높다. 하지만 보다 효율적인 AI를 개발하고, 이미 개발된 AI를 각 분야에 적용하도록 최적화하는 건 수학적 사고를 갖춘 인간의 통찰력이다.

교육부 역시 이러한 흐름에 발을 맞추고 있다. 지난 5월 발표한 수학 교육 종합계획(2020∼2024) 첫머리엔 “인공지능(AI), 데이터 사이언스 등 미래 첨단기술의 주요 기저로 수학이 활용됨에 따라, 수학교육의 강화에 대한 사회적 요구가 증대됐다”고 밝힌다. AI 시대에 대처하기 위한 각종 수학 교육 정책을 담았다는 뜻이다.

AI가 방정식, 함수 기반의 수학적 사고를 기반으로 개발되기도 하지만, 인공지능 시대에서 이전보다 중요해진 수학 단원은 ‘확률’과 ‘통계’라고 할 수 있다. 예를 들어 자율주행 자동차의 인공지능은 차선, 신호등 같은 주변 상황을 인식하는 게 가장 중요하다. 이 과정에서 무수히 많은 데이터를 수집하고 학습한 후 확률적인 계산을 하여 판단을 내린다. 실시간 음성 통역 인공지능이나 인공지능 진료 시스템 등도 마찬가지다.

최근엔 예전과 다르게 데이터가 숫자뿐 아니라 텍스트, 이미지, 영상, 음성 등의 다양한 형태로 구성되고 있다. 실시간으로 수집돼 그 양도 매우 많고 내용도 복잡하다. 데이터에 대한 감각을 어려서부터 키우는 것이 어느 때보다 중요해졌다.

그렇다면 학생들은 이제 어떻게 수학 공부를 해야 할까? 중요한 건 교과서 공부를 넘어 실생활에서 한 주제를 정해놓고 데이터를 수집, 가공, 분석해 결과를 내 보는 훈련이다. 데이터에 대한 감각과 문제 해결 역량을 키우는 게 핵심이다. 이를 위해선 혼자 공부하는 것보다 인공지능과 관련된 여러 대회에 출전해 보는 것을 추천한다. 통계청에서 매년 개최되는 전국통계 활용대회가 대표적이다. 준비 방법 및 수상작 등의 다양한 정보는 홈페이지에서 찾아볼 수 있다. 또 교내 지도 교사의 도움도 받을 수 있다.

프로그래밍 실력이 있는 중, 고등학생이라면 교육부 등 공공기관에서 주최하는 공공데이터 활용대회에 도전해 보는 것도 좋다. 요즘 유튜브, 포털 사이트 등에 데이터 수집, 분석하는 인공지능 시스템을 따라 만들어 볼 수 있는 동영상이 많아 대회 준비에 많은 도움이 될 것이다.

교육부에 따르면 2022년까지 AI 융합 교육 거점형 일반고와 AI 데이터 리터러시 모델학교를 각각 68개, 300개씩 운영하고 점차 그 수를 확대할 예정이다. 이를 비롯하여 교육부, 교육청에서는 AI 관련 다양한 교육활동을 계획하고 있으니 관심을 가지고 적극적으로 참여해보는 것도 좋을 것이다.

키워드에 대한 정보 인공 지능 확률 과 통계

다음은 Bing에서 인공 지능 확률 과 통계 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 인공지능과 통계학(AI \u0026 Statistics) – 허명회 교수

  • 인공지능
  • AI
  • 통계학
  • 통계
  • 인간지능
  • 허명회교수
  • 데이타솔루션
  • 성신여대
  • 성신여자대학교
  • IBM
  • watson
  • 왓슨
  • 데이터
  • 빅데이터
  • 통계강의
  • 통계학자
  • Statistics
  • 데이터분석
  • 데이터탐색
  • 데이터시각화
  • 분석가
  • 세미나
  • IT세미나
  • 통계세미나
  • 데이터분석가
  • 데이터사이언티스트
  • 데이터과학자
  • 통계학과
  • 파라미터
  • 모집단
  • 블랙박스
  • 확률표본

인공지능과 #통계학(AI #\u0026 #Statistics) #- #허명회 #교수


YouTube에서 인공 지능 확률 과 통계 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 인공지능과 통계학(AI \u0026 Statistics) – 허명회 교수 | 인공 지능 확률 과 통계, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

See also  눈두덩 이 부어 오름 | 눈, 눈꺼풀 눈주위 눈두덩이 부종 부음, 눈이 자주 부어요, 아침에 눈이 붓는 이유 14 개의 자세한 답변

Leave a Reply

Your email address will not be published. Required fields are marked *