기계학습 (머신러닝, Machine Learning; ML)의 분류와 경제학적 접근

post-thumb

기계학습 (머신러닝, Machine Learning; ML)의 분류와 경제학적 접근

지난 번의 글에서는 인공지능 (Artificial Intelligence; AI)에 대한 분류와 경제적 개념의 확장을 AI의 정의를 통해 살펴보았습니다. 이번 글에서는 AI 발전의 핵심 요소이며, 사회현상에 대한 경제분석을 가능케 한 기계학습 (Machine Learning; ML) 영역에 대해 논의하고자 합니다. 각각의 하위 영역에 대해 경제적 방법론을 통한 해석을 제공하며, 이 글은 AI를 활용한 경제분석에 대한 길잡이 역할을 하게 될 것입니다.

인터넷에서는 다양한 머신러닝 분석과 모델에 대한 설명을 찾아볼 수 있지만, 본 글에서는 일반적인 설명을 넘어선 새로운 시각을 제공하고자 합니다. 기존의 머신러닝 분류를 기반으로, 경제분석적 예시들을 통해 각 주제에 다른 관점을 제공합니다. 이를 위해, 이 글에서는 다양한 경제적 방법론과 예시를 통해 각 머신러닝 영역을 설명하고, 그것이 어떻게 경제분석에 활용될 수 있는지를 설명하겠습니다. 이를 통해, 머신러닝과 경제분석이 어떻게 서로 연결되는지, 그리고 그것이 우리가 사회현상을 이해하는 데 어떻게 도움이 되는지에 대한 통찰력을 얻을 수 있기를 바랍니다. 이 글은 AI를 활용한 경제분석의 목차적인 부분으로서, 이후의 글들을 전개하는 데 필수적인 역할을 하게 될 것입니다.


머신러닝의 분류와 경제적 접근법

머신러닝을 단지 방법론적인 툴로 보는 것은, 시간이 흐르며 누적되는 데이터를 통해 성능을 향상시키는 알고리즘으로 이해하는 것입니다. 그러나 동시에, 머신러닝의 기반이 되는 것은 통계적 학습모델입니다 (Hastie et al. 2012). 따라서 경제학적 분석 도구로서 머신러닝을 바라볼 때, 우리는 일반적인 머신러닝의 분류와 경제적 통계분석 사이의 유사성을 탐색하는 것이 적절할 것입니다. 아래 그림은 일반적인 머신러닝의 분류를 도식화한 것입니다.

machine learning category

그림1. 기계학습 (머신러닝, Machine Learning; ML)의 일반적인 분류

이 그림을 통해 볼 수 있듯이, 상황에 따라서 상세한 분류는 달라질 수 있지만 대체적으로, 머신러닝은 1. 지도학습, 2. 비지도학습, 3. 강화학습, 4. 앙상블 학습, 그리고 5. 인공신경망과 심층학습으로 크게 구분할 수 있습니다. 이러한 각 대분류는 다시 방법론적 접근에 따라 하위 분류로 세분화됩니다. 이제 이러한 분류에 대한 간략한 개념적 설명을 해보고, 각 방법론이 어떻게 경제적 분석에 활용될 수 있는지 살펴보도록 하겠습니다.


  1. 지도학습 (Supervised Learning; SL)

지도학습은 독립변수 (independent variable)와 종속변수 (dependent variable)를 활용하여 알고리즘을 통해 입력값에서 출력값으로의 매핑 함수 (mapping function)를 학습하는 머신러닝의 한 형태입니다. [머신러닝에서는 일반적으로 독립변수와 종속변수를 입력 변수(특징; feature)와 출력 변수(표적; target)로 표현합니다. 그러나 이 글에서는 경제학 분석에 보다 적합한 독립변수와 종속변수라는 표현을 사용하도록 하겠습니다.] 이러한 학습의 주 목적은 매핑 함수를 최적으로 근사화하여 새로운 입력 데이터가 주어질 때 해당 데이터의 종속변수를 정확히 예측하는 것입니다.

(1) 회귀 (regression)

회귀분석은 종속변수가 “급여” 혹은 “가중치”와 같이 실수 (real number) 또는 연속형 변수 (continuous variable)인 경우에 적용됩니다. 회귀의 목표는 연속형 변수의 값을 예측하는 것입니다. 이에 대한 전형적인 예로는 선형 (linear), 다항 (polynomial), 릿지 (ridge), 라쏘 (Least Absolute Shrinkage and Selection Operator; LASSO) 등의 회귀분석이 있습니다.

예를 들어, 임금 예측 문제를 고려해봅시다. 이때의 분석 목표는 교육 수준, 경력, 산업, 직책, 지역 등 다양한 요인을 고려하여 근로자의 임금을 예측하는 것입니다. 이때 필요한 데이터는 다수의 근로자에 대한 과거 데이터로, 각 근로자의 상세 정보는 독립변수의 역할을 하며 임금은 종속변수의 역할을 합니다. SL 모델은 이 과거 데이터를 통해 훈련되어, 주어진 독립변수에서 종속변수로의 매핑을 학습합니다. 훈련이 완료된 후에는, 모델은 제공된 상세 정보를 기반으로 근로자의 임금을 예측하는 데 활용됩니다. 이를 통한 분석 결과는 기업의 경쟁력 있는 급여 수준을 설정하거나 다른 그룹간의 임금 공정성을 분석하는 등의 다양한 목적으로 사용될 수 있습니다.

(2) 분류 (classification)

분류는 출력 변수가 “Yes” 또는 “No”와 같은 이진법 적인 카테고리일 경우에 활용됩니다. 주 목적은 데이터를 사전에 지정된 클래스로 분류하는 것입니다. 로지스틱 회귀분석 (logistic regression), 나이브 베이즈 (Naïve Bayes), K-최근접 이웃 (K-Nearest Neighbor; K-NN), 서포트 벡터 머신 (Support Vector Machine; SVM), 의사결정 트리 (Decision Tree) 등이 대표적인 분류 모델입니다.

예를 들어, 은행이 대출 신청자의 대출 채무 불이행 여부를 예측하는 신용 점수 시스템을 가지고 있다고 상상해보세요. 이때 독립변수는 신청자의 개인적 특징인 소득, 신용 이력, 나이, 고용 상태 등이 될 수 있으며, 종속변수는 채무 불이행의 여부 등의 이진 결과입니다. 이 분류 모델에서의 목표는 입력된 개인의 특징을 기반으로 채무 불이행 가능성을 최대한 정확하게 예측하는 매핑을 학습하는 것이며, 이 모델은 새로운 신청자를 분류하는 데 도움이 됩니다.

물론, 위의 분석에 포함된 독립변수가 반드시 외생적이라는 보장은 없습니다. 대부분의 변수들, 예를 들어 교육 수준은 내생적인 변수일 수 있습니다. 그러나 간단한 지도학습 분석에서는 이를 독립변수로 가정합니다. 이와 관련된 문제는 지도학습에 대한 더욱 상세한 포스팅에서 살펴보도록 하겠습니다.


  1. 비지도학습 (Unsupervised Learning; UL)

비지도 학습은 사전에 정의된 종속변수 없이, 더 이상 발견되지 않은 패턴을 찾아내는 머신러닝의 한 방법론입니다. 지도학습과는 달리, 비지도 학습은 독립변수만을 기반으로 종속변수가 없는 상황에서 이용될 수 있습니다. 이 방법론의 목표는 데이터의 기본적인 구조와 분포를 모델링하여 데이터로부터 더욱 많은 정보를 추출하는 것입니다. 비지도 학습에서 학습하려는 매핑은 데이터의 구조나 데이터의 서로 다른 부분 간의 관계를 설명하는 함수라고 볼 수 있습니다.

비지도 학습에는 주로 아래 세 가지 유형이 있습니다.

(1) 군집화 (클러스터링, Clustering)

클러스터링은 특정 기준에 따라 서로 유사한 데이터 관찰값을 그룹화하는 방법입니다. 이를 통해, 우리는 데이터를 클러스터로 분할하여 동일한 클러스터 내의 데이터가 다른 클러스터 내의 데이터보다 더 유사하도록 할 수 있습니다. 대표적인 클러스터링 모델로는 Fuzzy C-Means (FCM), 평균 이동(Mean Shift), K-평균 (K-Means), 밀도 기반 클러스터링 (Density-Based Spatial Clustering of Application with Noise; DBSCAN), 응집 (Agglomerative) 클러스터링 등이 있습니다.

예컨대, 고객 세분화 (segmentation) 문제는 그룹별로 최적화된 마케팅 전략을 구현하기 위해 클러스터링이 활용됩니다. 소비자들의 연령, 소득, 소비 습관 등 다양한 요인에 따라 소비자를 그룹화하는 문제는 비지도 학습의 전형적인 적용 사례입니다. 결과적으로, 하나의 그룹은 대량 구매를 드물게 하는 고소득 중년의 소비자로 구성되고, 다른 그룹은 소량 구매는 자주 하지만 젊은 저소득 소비자로 구성될 수 있습니다.

(2) 연관 규칙 학습 (Association Rule Learning)

연관 규칙 학습은 대량의 데이터베이스에서 항목 집합 간의 관계나 연관성을 찾는 방법입니다. 주로 시장 바구니 분석에 사용되며, 함께 구매되는 상품 간의 연관성을 찾는 것이 목적입니다. 대표적인 알고리즘 모델로는 FP Growth, 이클렛 (Eclat), 어프라이어리 (Apriori) 등이 있습니다.

예를 들면, 식료품점에서 고객의 구매 이력을 연관 규칙 학습을 통해 분석하면, 빵과 버터를 함께 구매하는 고객이 우유도 함께 구매하는 경향이 있다는 사실을 찾아낼 수 있습니다. 이러한 규칙은 제품의 효율적인 배치, 고객의 동선 조정, 특정 제품 추천 등에 활용될 수 있습니다.

(3) 차원축소 (Dimensionality Reduction)

차원 축소는 가능한 한 많은 정보를 보존하면서 데이터에서 사용되는 변수의 수를 줄이는 방법입니다. 고차원 데이터는 계산 복잡성과 차원의 저주 문제로 인해 분석이 어려울 수 있습니다. 따라서 차원 축소를 통해 고차원 데이터를 저차원 공간으로 표현하면 분석이 용이해집니다. 대표적인 방법으로는 t-distributed Stochastic Neighbor Embedding (t-SNE), Principal Component Analysis (PCA), 잠재 의미 분석 (Latent Semantic Analysis; LSA), Singular Value Decomposition (SVD), 잠재 디리클레 할당 (Latent Dirichlet Allocation; LDA) 등이 있습니다.

차원 축소는 수백 개의 잠재적 독립변수가 있는 기업의 미래 주가 예측 문제 등에서 활용될 수 있습니다. 예측 변수에는 회사의 과거 주가, 거래량, 매출, 수익, 비용, 그리고 GDP 성장률, 실업률, 인플레이션율, 금리 등의 거시경제 변수가 포함될 수 있습니다. 이러한 변수들은 주가와 관련성이 있을 수 있으며, 모든 변수들을 직접 사용하면 다중 공선성 문제가 발생할 수 있습니다. 따라서 PCA 등의 차원 축소 방법을 활용하여 고차원의 예측 변수를 저차원의 주성분으로 변환하여 주가 예측에 활용할 수 있습니다. 이를 통해 다중 공선성, 차원의 저주, 과적합 등의 문제를 방지할 수 있습니다.

비지도학습의 결과는 입력 데이터의 품질과 관련성, 사용된 알고리즘의 매개변수 선택, 그리고 결과 해석에 의존합니다. 따라서 이 결과는 확정적이지 않으며, 인과적인 통찰력을 제공하지 않습니다. 이에 대한 더욱 상세한 논의는 비지도학습에 대한 추가적인 포스팅에서 살펴볼 예정입니다.


  1. 강화학습 (Reinforcement Learning; RL)

강화학습은 학습하는 주체(모델)가 주어진 환경에서 보상을 최대화하기 위해 어떤 행동을 취해야 할지 스스로 결정하는 방법을 학습하는 머신러닝의 한 분야입니다. 지도학습과는 다르게 정답 레이블(종속변수)이 제공되지 않으며, 대신 학습하는 주체는 행동의 결과로부터 학습하며, 이를 통해 받는 보상(또는 처벌)에 따라 행동 전략인 정책(policy)을 조정합니다. 강화학습에서 학습하는 주체는 어떤 행동을 취해야 할지 지시를 받지 않고, 어떤 행동을 시도하여 가장 많은 보상을 얻을 수 있는지 스스로 학습해야 합니다. 이에 따라, 학습하는 주체의 행동은 이후 받게 될 데이터에 영향을 미치며, 이로 인해 능동적인 학습의 형태를 가지게 됩니다. 따라서, 강화학습의 핵심은 어떤 행동이 더 큰 보상을 주는지에 대한 탐험(exploration)과 이미 알고 있는 행동을 고수하는 착취(exploitation) 사이의 균형을 찾는 것입니다. 대표적인 알고리즘으로는 Q-learning, Deep Q-Network (DQN), State-Action-Reward-State-Action (SARSA), 유전 알고리즘 (Genetic Algorithm), Asynchronous Advantage Actor-Critic (A3C) 등이 있습니다.

실제 강화학습의 적용 예로는 우버(Uber)나 리프트(Lyft)와 같은 승차 공유 회사에서 동적 가격 전략을 결정하는 경우를 들 수 있습니다. 이러한 강화학습 환경에서 기업은 매 시간 단위마다 현재 상태(state(t))를 수신하고, 행동(action)을 선택하며, 보상(reward)을 얻고, 새로운 상태(state(t+1))로 전환합니다. 상태는 시간, 요일, 수요, 공급, 날씨 등의 다양한 요인들에 의해 결정되며, 행동은 기업이 설정하는 가격 정책입니다. 그리고 보상은 선택된 가격과 수요에 의해 직접적으로 영향을 받는 수익입니다. 기업은 강화학습을 통해 누적 보상을 최대화하는 정책, 즉 상태에서 행동으로의 매핑을 학습할 수 있습니다. 다양한 가격 전략을 탐색하면서, 가장 높은 보상을 얻을 수 있는 전략을 활용하는 방법을 시간이 지남에 따라 학습합니다. 예를 들어, 비가 오는 날에 가격을 높이는 것이 더 높은 수익을 가져온다는 사실을 발견할 수 있습니다.


  1. 앙상블 학습 (Ensemble Learning; EL)

앙상블 학습은 여러 모델을 동시에 훈련시켜 동일한 문제를 해결하고, 이들을 결합하여 더 우수한 결과를 도출하는 기계학습의 패러다임입니다. 앙상블 학습의 기본 가정은 개별적으로는 성능이 떨어지는 모델들이 적절히 결합될 경우, 보다 정확하고 뛰어난 모델을 구축할 수 있다는 것입니다. 앙상블 학습은 과적합, 편향, 분산 등의 문제를 완화하는 데 도움을 주며, 여러 모델을 구축하고 이를 통합함으로써 개별 모델의 오류를 보정하여 전체적으로 개별 모델보다 더 뛰어난 성능을 달성할 수 있습니다. 앙상블 학습의 주요 유형은 다음과 같습니다.

(1) 스태킹 (Stacking)

스태킹은 동일한 데이터 세트에 대해 서로 다른 모델들 (예: 의사결정 트리, SVM, 신경망 등)을 훈련시킨 후, 이들의 예측을 통합하는 방법입니다. 이러한 통합은 다른 모델(메타 학습기 또는 2차 레벨 학습기라고 함)이 다른 모델들의 예측을 입력으로 받아 최종 예측을 수행하는 방식으로 이루어집니다.

스태킹의 예로 주가 예측을 생각해볼 수 있습니다. 여러가지 특징들에 대해 훈련된 다양한 모델들, 예를 들어 과거 가격에 대한 모델, 재무 지표에 대한 모델, 뉴스 감정에 대한 모델 등이 있다고 가정합시다. 이러한 모델들의 예측을 입력으로 받아, 최종 예측을 하는 메타 학습기를 훈련시키는 방식으로 스태킹을 활용할 수 있습니다.

(2) 배깅 (Bootstrap aggregating; Bagging)

배깅은 (a) 원래 데이터의 여러 부분 집합을 재샘플링하여 생성하고, (b) 각 부분 집합에 대해 모델을 훈련하며, (c) 이들의 예측을 통합하는 방법입니다. 이러한 통합은 분류의 경우 다수결 투표, 회귀의 경우 평균값을 통해 이루어집니다. 배깅은 모델 구축 과정에 무작위성을 도입하고 앙상블을 구축하여 예측의 분산을 줄여주는데 도움이 됩니다. 랜덤 포레스트(Random Forest)는 훈련 시간에 다수의 의사결정 트리를 생성하고, 분류나 회귀의 개별 트리 결과를 출력하는 대표적인 배깅 방법입니다.

배깅은 다른 모델들을 결합한다는 특성 때문에 대출 채무 불이행 여부와 같은 문제 뿐만 아니라 다양한 경제적 문제를 해결하는 데에 활용될 수 있습니다.

(3) 부스팅 (Boosting)

부스팅은 여러 약한 분류기(weak classifier)를 통합하여 강한 분류기(strong classifier)를 생성하는 것을 목표로 하는 앙상블 방법입니다. 이는 훈련 데이터로부터 모델을 구축한 후, 이 모델의 오류를 수정하는 두 번째 모델을 생성함으로써 이루어집니다. 훈련 세트가 완벽하게 예측되거나, 최대 수의 모델이 추가될 때까지 이러한 과정이 반복됩니다. 부스팅의 대표적인 모델로 XGBoost, Light Gradient Boosting Machine (LightGBM), CatBoost, Adaptive Boosting (AdaBoost) 등이 있습니다.

부스팅 또한 기존 모델들의 효율성과 정밀성을 높여주는 특성 때문에 다양한 경제적 문제를 해결하는 데에 활용될 수 있습니다.


  1. 인공신경망(Artificial Neural Networks; ANNs)과 심층학습 (Deep Learning; DL)

인공신경망(ANNs)은 인간의 뇌 구조에서 영감을 받아 만들어진 계산 모델입니다. 상호 연결된 인공 뉴런 집합으로 구성되며, 연결주의적 계산 방법을 통해 정보를 처리합니다. 이는 인간처럼 경험을 통해 학습하고 성능을 개선할 수 있습니다. 심층학습(Deep Learning)은 이러한 인공신경망을 보다 깊게 쌓아 복잡한 패턴과 구조를 모델링하는 발전된 형태입니다.

(1) 퍼셉트론 (Perceptrons)

퍼셉트론은 인공신경망의 가장 기본적인 형태로, 복잡한 네트워크의 구조적 기초를 이루는 모델입니다. 하나의 뉴런 레이어로 구성되며, 각 뉴런은 이진 결정을 내리고 그 결과를 합성 함수에 전달합니다. 이를 통해 최종적으로 이진 결과를 얻을 수 있습니다. 예를 들어, 퍼셉트론은 다음 해의 GDP가 증가할지 감소할지와 같은 간단한 이진 예측 작업에 활용될 수 있습니다.

(2) Convolutional Neural Networks (CNNs)

CNNs는 주로 시각적 데이터 처리에 특화된 강력한 딥 러닝 알고리즘입니다. 이는 그리드 형태의 작업에서 특징의 공간적 계층을 자동적으로 학습하도록 설계되었습니다.

최근 연구 결과에 따르면, CNNs은 시계열 예측에 있어 매우 효과적인 도구로 부상하고 있습니다. CNNs은 데이터 내에서 지역적 그리고 전역적 패턴을 감지하는 데 뛰어난 성능을 보이며, 이는 시계열 데이터를 따라 이동하며 중요한 패턴 또는 ‘비트’를 탐색하고 식별할 수 있기 때문입니다. 이런 패턴 학습 및 인식 능력은 예측 분석에서 핵심적인 역할을 담당합니다. 특히, CNNs은 이미지에서 픽셀의 공간적 배열을 통해 패턴을 인식하는 것과 유사한 방식으로, 시계열 데이터에서 시간적 배열에 따른 관찰값들의 패턴을 학습합니다.

(3) Recurrent Neural Networks (RNNs)

순환 신경망은 순차적 또는 시계열 데이터를 처리하는 데 적합한 신경망입니다. 일반적인 신경망과 다르게 RNN은 숨겨진 상태 벡터로 ‘메모리’를 유지하며 이전 입력에 대한 정보를 저장합니다. 시계열 데이터 분석에서는 과거의 정보가 현재 및 미래의 패턴을 이해하는 데 중요한 역할을 합니다.

예를 들어, 주식시장에서 수익률의 변동성을 분석할 때, 과거의 높은 변동성이 이어질 확률이 높고, 반대로 낮은 변동성 또한 연속적으로 나타날 가능성이 높습니다. 이처럼 변동성이 클러스터링을 이루는 현상은 시계열 데이터의 중요한 특성 중 하나입니다. 순환 신경망은 이러한 시계열 데이터의 특성을 잘 활용하며, 과거 데이터 포인트를 ‘기억’하고 이 정보를 미래의 예측에 사용합니다. 이는 과거의 시간적 구성 요소가 현재 및 미래의 예측에 중요한 영향을 미치는 경우에 매우 유용합니다. 따라서 순환 신경망은 변동성 클러스터링 같은 시간적 패턴을 가진 시계열 데이터를 분석하는 데 적합한 모델이라고 할 수 있습니다.

(4) 오토인코더(Autoencoders)

오토인코더는 입력 데이터의 효율적인 인코딩을 학습하는 신경망입니다. 이는 입력 데이터를 잠재 공간 표현으로 변환(인코딩)하고, 그 표현을 바탕으로 원본 입력을 재구성(디코딩)하는 방식으로 작동합니다. 이러한 종류의 네트워크는 크게 함수 h=f(x)인 인코더와 함수 r=g(h)인 디코더 두 부분으로 구성됩니다. 이를 통해 데이터의 특징을 압축하고 복원하는 능력을 학습합니다.

오토인코더의 활용 사례로는 신용 카드 거래의 비정상 패턴 감지, 즉 사기 방지가 있습니다. 오토인코더는 주어진 거래 데이터의 정상적인 패턴을 학습하며, 이를 바탕으로 새로운 거래를 재구성합니다. 여기서 재구성 오차가 높게 나타나는 거래는 비정상적인 패턴을 가지므로, 사기 거래일 가능성이 높다고 판단할 수 있습니다. 정상적인 거래의 경우, 오토인코더는 훈련 과정에서 학습한 패턴과 구조를 기반으로 거래를 정확하게 재구성할 수 있어야 합니다. 따라서 재구성 오차가 상대적으로 낮게 나타납니다. 그러나, 훈련 데이터와 본질적으로 다른 패턴을 보이는 부정 거래의 경우, 오토인코더는 거래를 정확하게 재구성하는데 어려움을 겪을 가능성이 높습니다. 이는 오토인코더가 훈련 과정에서 부정 거래의 특정 패턴을 학습하지 못했기 때문에, 이와 같은 거래를 재구성할 때 오차가 높게 발생할 수 있습니다. 이런 방식으로, 오토인코더는 사기 거래 탐지에 효과적으로 활용될 수 있습니다.

(5) 생성적 적대 신경망(Generative Adversarial Networks; GANs)

GANs은 실제 데이터 분포를 모방하는 새로운 합성 데이터를 생성하는 인공 신경망입니다. 이는 생성기와 판별기라는 두 부분으로 구성되며, 생성기는 새로운 데이터를 생성하고, 판별기는 생성된 데이터를 평가합니다. 서로 적대적인 학습 과정을 통해 생성기는 실제 데이터와 유사한 데이터를 생성하는 능력을 향상시키며, 판별기는 실제 데이터와 생성된 데이터를 구별하는 능력을 향상시킵니다.

다양한 조세 정책이 GDP, 실업률, 인플레이션 등의 경제 지표에 어떠한 영향을 미치는지 평가하려는 상황을 가정해봅시다. 하지만, 과거의 데이터만으로는 한계가 있고, 실제로 다른 정책을 시행해보지 않고서는 그 결과를 예측하는 것은 어렵습니다. 이 때, GANs의 활용이 효과적일 수 있습니다. GANs을 이용하면, 다양한 잠재적 시나리오를 시뮬레이션하여 합성 데이터를 생성할 수 있습니다. 이러한 과정에서 생성기는 각기 다른 조세 정책 하에서 발생할 수 있는 경제 데이터를 합성하게 됩니다. 이후 판별기는 이 합성된 데이터가 실제 경제 데이터와 얼마나 비슷한지, 즉 그 데이터가 타당한지를 판단하게 됩니다. 이런 방식으로 학습을 반복하면, 생성기는 시간이 지날수록 다양한 조세 정책이 경제 지표에 미치는 잠재적 영향을 더욱 정확하게 반영하는, 실제 데이터와 유사한 합성 데이터를 생성하게 됩니다. 결국, 이렇게 생성된 합성 데이터는 정책 시뮬레이션과 분석에 활용될 수 있습니다. 즉, 실제로 정책을 시행하지 않고도 해당 정책이 미칠 수 있는 영향을 예측하고 분석하는 것이 가능해집니다. 이는 정책 결정 과정에서 중요한 참고 자료가 될 수 있으며, 더욱 신뢰성 있는 정책을 수립하는 데에 도움을 줄 수 있습니다.


이번 포스팅에서는 다양한 모델들에 대한 개략적인 설명을 제공하였습니다. 앞으로의 포스팅에서는 이러한 모델들을 이용하여 경제학 분야의 다양한 문제를 적절한 예시를 통해 분석해나갈 예정입니다. 이번 포스팅이 앞으로의 포스팅의 목차로서 독자분들에게 유용한 가이드가 되길 바라며, 다음 포스팅에서 더욱 심도 있는 내용을 기대해주세요.

참고문헌

Agrawal, A., Gans, J., & Goldfarb, A. (Eds.). (2019). Economics of Artificial Intelligence: An Agenda. National Bureau of Economic Research. https://www.nber.org/books-and-chapters/economics-artificial-intelligence-agenda

Hastie, Trevor, Tibshirani, Robert and Friedman, Jerome. The Elements of Statistical Learning. New York, NY, USA: Springer New York Inc., 2001.


인공지능경제연구소(AIEconLab)는 좋은 정보의 자유로운 교류를 통한 지식 발전을 지향합니다. 동 블로그의 모든 저작물은 자유롭게 퍼나르셔도 됩니다만, 출처를 밝혀주시면 감사하겠습니다. (출처: 인공지능경제연구소(AIEconLab) 블로그(aieconlab.com))