본문 바로가기
반응형

ML&AI32

Integrating Learning and Planning Dyna, MCTS둘다 "model-based" 기법입니다.Dyna와 MCTS는 모두 환경 모델을 기반으로 시뮬레이션을 수행하는 기법이지만, 그 시뮬레이션의 목적과 활용 방식, 업데이트 대상이 다릅니다.Dyna는 강화학습 알고리즘의 학습 속도를 높이기 위한 구조입니다. 에이전트는 실제 환경과의 상호작용을 통해 데이터를 수집하고, 이 데이터를 바탕으로 환경 모델을 학습합니다. 이후 학습된 모델을 사용해 시뮬레이션 데이터를 생성하고, 이 데이터를 Q-learning이나 policy gradient 같은 기존 강화학습 알고리즘에 입력하여 학습을 진행합니다.즉, Dyna는 시뮬레이션을 통해 Q값이나 정책 파라미터를 업데이트하는 데 사용하며, 이렇게 학습된 내용은 지속적으로 저장되고 이후 행동 선택에도 반영됩니다.. 2025. 6. 17.
DQN은 Q-learning + 딥러닝 기반 알고리즘 DQN은 Q-learning에서 Q-table 대신 신경망(Neural Network)을 써서 상태(state)를 입력받아 행동(action)의 Q값을 예측하는 강화학습 알고리즘이다. Q-table은 작은 문제엔 충분하지만, 현실 문제처럼 고차원 상태 공간에선 Neural Network를 써서 Q값을 근사해야 합니다. 이게 DQN입니다.상태의 공간이 너무 큰 경우, Q-table로는 모든 s,a조합을 저장하는게 불가능해 그래서 나온 해결책이 Q값을 근사 함수로 학습하자는 것이다. 상태를 입력으로 받아, 각 행동의 Q값을 예측해주는 함수 Q(s,a;θ)Q(s, a; \theta)Q(s,a;θ) 를 만들자! → 여기서 θ\thetaθ는 신경망 파라미터 = 바로 Neural Network를 쓰는 이유이다.= .. 2025. 6. 17.
Multi-Armed Bandit (MAB)상황에서 탐험 전략(exploration strategy)이 좋은가 강화학습에서 더 좋은 보상을 얻기 위해, 아직 시도해보지 않은 행동도 “탐험(exploration)”해야 하고,학습을 통해 그 중 가장 좋은 행동을 “활용(exploitation)”하는 것이 필요하다.Multi-Armed Bandit 상황에서 "좋은" 전략은 아래 목표들을 효율적으로 균형 잡는 전략입니다:Exploitation (활용): 지금까지 얻은 정보로 보상이 높은 arm 선택Exploration (탐험): 더 나은 보상을 주는 arm이 있을 수 있으니 시도즉, 좋은 전략은 초기에는 많이 탐험하고, 시간이 갈수록 활용에 집중하며, 누적 보상(cumulative reward)을 최대화 = 총 regret을 최소화하는 것ε-Greedy(DQN)탐험 방법: 확률 ε로 랜덤 탐색 ε는 탐험(explorat.. 2025. 6. 17.
Model-free에서 시작해 Dyna, Monte Carlo Tree Search까지 Model-free에서 시작해 Dyna, Monte Carlo Tree Search까지강화학습(RL)을 공부하다 보면 처음엔 대부분 model-free 방식부터 시작한다.이 방식은 환경의 전이 확률이나 보상 분포 같은 내부 구조를 전혀 모른 채, 순수히 경험 데이터만으로 가치 함수나 정책을 학습한다.하지만 점차 더 빠르고 효율적인 학습을 원하게 되면, 자연스럽게 모델 기반(model-based) 접근을 고민하게 된다.경험으로부터 모델을 만든다 – Table Lookup모델 기반 강화학습의 첫걸음은, 경험 데이터를 바탕으로 모델을 직접 추정하는 것이다.예를 들어 (s,a,s′,r)(s, a, s', r)(s,a,s′,r) 형태의 경험들이 충분히 쌓이면, 어떤 상태 sss에서 행동 aaa를 했을 때 어떤 다.. 2025. 5. 26.
ε-Greedy부터 Thompson Sampling까지: 탐색 알고리즘 매일 점심시간이면 비슷한 고민에 빠진다. "어제 갔던 맛집에 또 갈까, 아니면 새로운 데 한 번 시도해볼까?"이 단순한 고민은 사실 강화학습의 핵심 딜레마와 정확히 일치한다. 바로 Exploration(탐색) vs Exploitation(활용).Exploitation은 지금까지의 경험으로 가장 좋은 선택을 반복하는 전략이다.→ "내가 잘 아는 그 집, 무조건 맛있으니까 또 가자!"Exploration은 새로운 선택지를 시도해서 더 나은 가능성을 찾는 전략이다.→ "모르긴 해도 저 골목 새로 생긴 집, 혹시 대박일지도?"현실에서도, AI 시스템에서도, 이 두 전략의 균형은 결과의 질을 결정짓는 핵심 요소다. 이런 선택의 균형을 다루는 Multi-Armed Bandit 문제를 시작으로, ε-Greedy, U.. 2025. 5. 26.
비지도학습에서 시작한 추천 시스템: GMM에서 MLP까지 추천 시스템을 구축하는 방법에는 크게 두 가지 접근이 있다. 하나는 비지도학습 기반의 클러스터링 방식이고, 다른 하나는 실제 사용자 행동 데이터를 활용한 지도학습 기반 모델이다.GMM(Gaussian Mixture Model)은 대표적인 비지도 클러스터링 기법으로, 사용자 벡터들을 군집화하여 각 클러스터의 대표적인 비즈니스친구을 추천하는 데 사용할 수 있다. 이 방식은 라벨(label) 정보 없이도 작동하므로, 추천 시스템 초기 구축 단계나 사용자 데이터가 부족한 상황에서 유용하게 활용된다. 또한, cold start 문제에 강하다는 장점이 있다.그러나 GMM만으로는 사용자 개개인의 세밀한 취향을 반영하기 어렵고, 추천 결과에 대한 정량적 평가(AUC 등)를 수행하기 어렵다는 한계가 있다. 따라서 데이터.. 2025. 5. 24.
LSTM과 GRU는 RNN의 대표적인 확장 구조로, 기억을 더 오래 유지하면서도 잊을 건 잘 잊도록 설계된 모델 왜 LSTM과 GRU가 필요한가?기본 RNN은 시퀀스 데이터를 처리할 수 있지만, 긴 문장이나 멀리 떨어진 의존 관계(예: "The dog ... was barking")를 잘 처리하지 못해한다. 그 이유는 gradient vanishing/exploding 때문이고, 결국 중요한 과거 정보가 시간이 지나면서 소실되기 때문이다. RNN의 hidden state는 반복적으로 같은 가중치 W와 활성화 함수 tanh를 거친다.역전파 시, 기울기가 시간 축을 따라 W와 tanh'의 곱으로 누적된다.이 누적 곱이 커지면 exploding gradient, 작아지면 vanishing gradient 문제가 발생한다.그래서 기본 RNN은 긴 시퀀스에 적합하지 않다.그래서? 해결책은?LSTM, GRU: gate 구조로.. 2025. 5. 18.
RNN(순환 신경망 Recurrent Neural Network) 실습 1 상황당신은 다양한 입력 데이터를 처리하는 신경망 모델을 설계하는 역할을 맡고 있다.아래의 세 가지 상황 중 RNN이 특히 적합한 상황을 고르고, 그 이유를 모델러 관점에서 자세히 설명하시오.또한 다른 두 상황에서는 왜 RNN보다 다른 모델이 더 적합한지도 간략히 비교하여 설명하시오. 주식 가격의 과거 흐름을 바탕으로 다음 날의 주가를 예측하는 문제고객의 성별, 연령, 구매 횟수, 총 소비 금액을 기반으로 이탈 여부를 분류하는 문제손글씨 숫자 이미지(MNIST)를 보고 해당 숫자를 분류하는 문제설명RNN(Recurrent Neural Network)은 입력 데이터 간의 시간적 순서나 문맥적 흐름이 중요한 문제에 적합한 구조이다.따라서 제시된 세 가지 상황 중에서 1번, 주식 가격 예측 문제가 RNN 구조에.. 2025. 5. 18.
RNN(순환 신경망 Recurrent Neural Network) 왜 RNN이 필요한가?기존의 신경망(FNN, MLP 등)은 모든 입력 데이터를 동시에 처리하는 구조를 가지고 있다. 하지만 실제 세상에는 순서가 중요한 데이터가 많다. 예를 들어 문장에서 단어의 순서는 의미를 결정하는 데 핵심적인 역할을 하고, 주가나 날씨 데이터처럼 시간에 따라 변화하는 시계열 데이터도 이전 값이 다음 값에 영향을 미친다.이런 경우에는 단순히 현재 입력만으로 결과를 예측하는 것이 아니라, 과거의 정보도 함께 고려해야 더 정확한 판단을 할 수 있다.즉, 모델이 기억 을 가질 필요가 생긴 것이다.RNN의 탄생: 순서를 기억하는 신경망이러한 문제를 해결하기 위해 등장한 구조가 바로 RNN(Recurrent Neural Network) 이다.RNN은 입력 시퀀스를 시간 순서대로 한 단계씩 처리.. 2025. 5. 18.
CNN (Convolutional Neural Network) 실습 상황손글씨 숫자 이미지 데이터를 이용해 숫자를 분류하는 모델을 설계하려고 한다.합성곱 신경망(CNN)을 기반으로 한 모델 구조를 제안하고, 각 구성 요소의 역할과 선택 이유를 설명하시오.또한, 이 구조가 MLP(DNN) 기반 분류기보다 더 적합한 이유를 논하시오.실습손글씨 숫자 분류(MNIST)와 같은 문제에서는 입력 데이터가 28×28 픽셀(MNIST라는 데이터셋=인공지능/딥러닝 초기에부터 손글씨 숫자 인식 문제를 실험하고 학습하기 위한 표준 데이터셋)의 흑백 이미지로 주어지며, 이는 단순한 숫자 배열이 아니라 2차원 공간 구조와 지역적 패턴을 가진 데이터이다.따라서 이 문제를 해결하기 위해서는 각 픽셀 간의 위치 정보와 지역 특징을 효과적으로 활용할 수 있는 합성곱 신경망(CNN) 구조가 적합하다.모.. 2025. 5. 18.
CNN (Convolutional Neural Network) 정리 CNN (Convolutional Neural Network) 개념 정리CNN은 이미지, 음성, 시계열 등의 공간적 또는 국소적(local) 구조가 있는 데이터를 처리하는 데 특화된 신경망이다.특히 이미지에서는 특정 위치나 패턴(선, 모서리, 질감 등)이 중요한데, CNN은 이 지역적인 정보를 필터(또는 커널) 를 통해 자동으로 학습하고 추출할 수 있다. CNN은 "시계열 전용 모델"은 아니지만, 시계열 데이터의 지역적인 패턴을 잘 잡을 수 있기 때문에 종종 효과적으로 사용된다. (RNN이나 LSTM처럼 시계열 전체 흐름을 직접 모델링하는 데 최적화된 구조는 아니다.)왜 CNN이 시계열에 쓰이기도 할까?시계열의 특징데이터는 시간 순서대로 나열됨인접한 시점끼리 의미 있는 패턴을 가짐 (예: 주기성, 급등락.. 2025. 5. 18.
MLP(Multi-Layer Perceptron) 실습 상황고객 데이터를 이용해 이탈 여부를 예측하고자 한다. 단순한 FNN으로는 성능이 한계에 부딪힌다고 판단될 때?해석고객 이탈 예측은 고객별 다양한 특성(나이, 가입 기간, 요금제, 최근 이용 여부 등)을 기반으로 이탈 가능성(0 또는 1)을 예측하는 이진 분류(binary classification) 문제이다. 이 문제에서 입력 데이터는 일반적으로 각 샘플(고객)에 대해 다차원 특성 벡터로 구성되며, 시간이나 공간의 구조는 포함되어 있지 않다. 따라서 CNN이나 RNN 계열 모델보다 일반적인 전방향 신경망 구조가 적합하다.이전에는 단일 은닉층으로 구성된 Feedforward Neural Network(FNN)를 사용할 수 있었지만, 고객 이탈과 관련된 특성 간의 관계가 단순하지 않고 상호작용이 복잡하게.. 2025. 5. 18.
Feedforward Neural Network (FNN) 실습 1 개념정리Feedforward Neural Network(FNN)는 인공신경망의 가장 기본적인 형태로, 입력층(Input layer), 은닉층(Hidden layer), 출력층(Output layer)으로 구성되며, 정보가 한 방향으로만 흐르는 구조를 갖는다. FNN은 시간이나 공간적 순서가 없는 데이터, 예를 들어 고객 정보, 테이블형 데이터, 벡터화된 정적 특성 등을 처리하는 데 적합하다.입력층에서는 각 데이터 샘플의 특징(feature)들이 입력되며, 이 입력은 은닉층을 거쳐 출력층으로 전달된다. 각 층은 선형 변환(Linear Transformation: y=Wx+by = Wx + by=Wx+b)과 활성화 함수(Activation Function)를 거쳐 다음 층으로 전달된다. FNN에서는 주로 R.. 2025. 5. 18.
FNN과 역전파: 딥러닝의 기본 구조를 이해하고 실습도 해보자. 딥러닝을 처음 접할 때 꼭 이해해야 할 구조가 있습니다. 바로 FNN(Fully Connected Neural Network), 또는 다층 퍼셉트론(MLP: Multilayer Perceptron)입니다. 이 글에서는 FNN이 무엇이고, 어떤 방식으로 데이터를 처리하며 학습하는지, 그리고 그 과정에서 왜 역전파(backpropagation)가 핵심인지 하나씩 정리해 보겠습니다.퍼셉트론: 신경망의 출발점딥러닝의 출발은 1958년 프랭크 로젠블렛이 제안한 퍼셉트론(perceptron)이라는 구조입니다. 퍼셉트론은 간단한 선형 분류기로, 입력값에 가중치를 곱해 출력하는 방식입니다. 그러나 이 구조는 XOR 문제와 같은 비선형적인 문제를 해결하지 못하는 한계가 있었습니다.이러한 한계를 극복하기 위해 여러 퍼셉트.. 2025. 5. 17.
카페 챗봇으로 배우는 강화학습: 벨만 방정식부터 TD 학습까지 알아보자. 강화학습은 에이전트가 시행착오를 통해 환경과 상호작용하며 최적의 정책을 찾아가는 머신러닝 방법이다. ( 온폴리시와 오프폴리시, 몬테카를로와 TD 학습 등 다양한 접근 방식) 이는 인간의 학습 방식과 유사하게, 행동에 따른 결과(보상)을 바탕으로 점진적으로 더 나은 선택을 하도록 학습한다. 실제 응용에서는 강화학습이 2가지 방식으로 활용된다. 첫째 실시간으로 학습하며 업데이트하는 온라인 강화학습과 둘째, 미리 수집된 데이터로 학습 후 고정된 정책을 사용하는 오프라인(배치)강화학습이다.실시간으로 업데이트하지 않아도 되는 경우는 batch reinforcement learning=offline reinforcement learning 이라고 부른다. 오프라인강화학습의 특정은 환경과의 추가 상호작용이 없다. 즉.. 2025. 4. 14.
선형회귀(Linear Regression)는 데이터 분석과 예측 모델링에서 가장 기본적이고 널리 사용되는 통계적 방법 (실습) 선형회귀는 입력 변수(독립 변수, X)와 출력 변수(종속 변수, Y) 사이의 선형 관계를 모델링하는 방법이다. 즉, X가 변할 때 Y가 어떻게 변하는지를 직선(또는 고차원에서는 평면)으로 표현하는 것이죠.Y = β₀ + β₁X₁ + β₂X₂ + ... + βₙXₙ + ε여기서Y는 예측하려는 값(종속 변수) = 예를 들어 집 가격X₁, X₂, ..., Xₙ은 입력 변수들(독립 변수) = 예를 들어 집의 크기β₀는 y절편(상수항) = Y-절편, 직선이 Y축과 만나는 지점β₁, β₂, ..., βₙ은 각 입력 변수의 계수(기울기) = X가 1단위 증가할 때 Y가 얼마나 증가하는지ε은 오차항선형회귀의 목표는 데이터에 가장 잘 맞는 선(또는 평면)을 찾는 것입니다. 이를 위해 보통 '최소제곱법'을 사용하여 실제 .. 2025. 3. 31.
Model Based 접근법 : MDP (Markov Decision Process)와 동적 프로그래밍 MDP 개념 다시 훑어보자.MDP는 순차적 의사결정 문제를 수학적으로 모델링하는 프레임워크입니다. 강화학습의 기본이 되는 개념으로, 에이전트가 환경과 상호작용하며 최적의 결정을 내리는 방법을 공부할 때 사용됩니다.MDP의 핵심 요소MDP는 다음 요소들로 구성됩니다:상태(State, S): 환경의 현재 상황행동(Action, A): 에이전트가 취할 수 있는 행동상태 전이 확률(Transition Probability, P): 현재 상태와 행동이 주어졌을 때 다음 상태로 전이할 확률보상(Reward, R): 특정 상태에서 특정 행동을 취했을 때 받는 즉각적인 보상할인율(Discount Factor, γ): 미래 보상의 현재 가치를 계산하는 파라미터(0~1 사이)중요 함수들1. 정책(Policy, π)각 상태.. 2025. 3. 31.
피드포워드 신경망(Feedforward Neural Networks) 피드포워드 신경망(Feedforward Neural Networks) 수업내용을 정리해본다.1. 인공 신경망의 기초생물학적 뉴런과 인공 뉴런생물학적 뉴런에서 영감을 받은 인공 뉴런은 입력 신호를 받아 처리하고 활성화 함수를 통해 출력을 생성합니다. 로젠블랏(Rosenblatt)이 1958년에 제안한 퍼셉트론은 초기 형태의 인공 뉴런 모델입니다.퍼셉트론 모델입력 벡터 x를 특성 벡터 φ(x)로 변환일반화된 선형 모델: y(x) = f(w^T φ(x))활성화 함수로 계단 함수 사용퍼셉트론 기준: 클래스 C1(t=+1)과 C2(t=-1)를 선형적으로 분리퍼셉트론의 한계선형적으로 분리 가능한 문제만 해결 가능퍼셉트론 학습 알고리즘의 가장 큰 문제점은 데이터가 선형적으로 분리 가능하지 않을 경우 수렴하지 않는다는.. 2025. 3. 24.
벨만 최적 방정식(Bellman Optimality Equation) 벨만 최적 방정식은 "최선의 선택을 하기 위한 수학적 공식"입니다. 특정 상황(상태)에서 어떤 행동을 취했을 때 얻을 수 있는 최대 가치(보상)를 계산하는 방법을 제공합니다. = 벨만 방정식은 현재 받을 수 있는 즉각적인 보상(reward)과 다음 상태(state)의 가치 함수(value function) 간의 관계를 정의하는 방정식V(s) = R(s) + γ∑P(s'|s)V(s')"지금 받는 리워드 + (다음 상태들에서 받게 될 모든 리워드의 기대값)"으로 해석할 수 있습니다.벨만방정식이 선형인 이유는? 벨만 방정식은 각 상태의 가치를 구하는 방정식입니다. 이것이 선형 방정식이라는 것은 다음과 같은 의미입니다.예를 들어작은 세계에 3개의 상태가 있다고 가정해봅시다: 상태 1, 상태 2, 상태 3 , 각.. 2025. 3. 21.
강화학습 Markov Decision Process 마르코프 프로세스 (MP)마르코프 프로세스는 현재 상태가 주어지면, 미래 상태는 과거 상태와 독립적으로 현재 상태에만 의존한다는 개념입니다.미로 게임: 4x4 그리드 형태의 미로가 있고, 각 칸이 하나의 상태입니다(총 16개 상태). 캐릭터는 각 상태에서 상/하/좌/우로 이동할 수 있지만, 이동할 때 80%는 의도한 방향으로, 20%는 무작위 방향으로 미끄러집니다.여기서 마르코프 속성은: 캐릭터가 다음에 어디로 이동할지는 오직 현재 위치에만 의존하고, 이전에 어떤 경로로 왔는지는 중요하지 않습니다.상태 전이 확률(State Transition Probability): P(s'|s) = 현재 상태 s에서 다음 상태 s'로 이동할 확률마르코프 리워드 프로세스 (MRP)MRP는 MP에 보상(리워드)을 추가한 .. 2025. 3. 21.
머신러닝 지도 학습(Supervised Learning):레이블이 있는 데이터로 학습합니다.입력과 정답(레이블)이 쌍으로 제공됩니다.모델이 입력을 통해 정답을 예측하도록 훈련합니다.예: 이미지 분류, 숫자 인식, 텍스트 분류, 회귀 분석 등회귀(Regression) 문제목적: 연속적인 값을 예측하는 것예시:주택 가격 예측/주식 가격 예측/온도 예측/판매량 예측알고리즘:선형 회귀(Linear Regression)다항 회귀(Polynomial Regression)결정 트리 회귀(Decision Tree Regression)신경망 회귀(Neural Network Regression)성능 측정: MSE(Mean Squared Error), MAE(Mean Absolute Error), RMSE(Root Mean Squa.. 2025. 3. 15.
강화학습Reinforcement learning 데이터셋을 미리 준비하지 않고, 환경과 상호작용하면서 데이터를 수집하고 학습 지도학습/비지도학습 예시코드는 이전 글로 갈음하고 강화학습부터 정리를 해보자. (작성중~)지도학습(Supervised Learning)에서 분류(Classification)와 회귀(Regression)의 차이점분류(Classification)와 회귀(Regression)의 주요 차이점:출력값의 유형:분류: 이산적인 범주나 클래스를 예측합니다 (예: 스팸/정상 이메일, 개/고양이/말 이미지)회귀: 연속적인 값을 예측합니다 (예: 주택 가격, 온도, 주가)목적:분류: 입력 데이터를 미리 정의된 범주 중 하나로 할당하는 것회귀: 입력 변수와 출력 변수 사이의 관계를 모델링하여 연속적인 값을 예측하는 것일반적인 평가 지표:분류: 정확도(Accuracy), 정밀도(Precision), 재현율(Recall), F1.. 2025. 3. 12.
웹 기반 코퍼스 분석 도구 / 유사도 기반의 저자판별 도구의 기능 http://corpus.korea.ac.kr단어빈도빈도는 관심의 정도를 반영하는 지표공기어 분석대상어랑 같은 문맥에서 함께 나타나는 단어문맥 같은 문장에 나타나는 단어를 문맥으로 본다.윈도우사이즈연관성:상호정보, TfIdfT점수같은 문장에서 두 단어가 우연히 나타날 빈도보다 실제로 함게 나타난 빈도가 높을수록 강한 공기관계가 성립한다.관련어대상어와 의미적으로 관련있는 단어동의어, 반의어, 상/하위어, 유사어등 전처리과정문자 정규화호환 문자를 대표형으로 변환문장, 문단 구분문장은 , 문단 태그로 구분한자 한글 변환(변기)한자어-한글 사전, 한자-한글 테이블, 두음법칙, 최장일치분석법유니코드 한자-한글 자동 변환 연구 및 구현형태소분석 대체어 및 외래어 이형태 검출 --> 소멸된 단어가 후보가.. 2024. 11. 12.
텍스트마이닝 1. 정확률 (Accuracy)정확률은 전체 데이터 중에서 올바르게 예측한 비율을 나타내는 지표입니다. 즉, 모델이 얼마나 정확하게 예측했는지를 평가합니다.정의:정확률 (Accuracy)=올바르게 예측한 샘플 수전체 샘플 수=TP+TNTP+TN+FP+FN\text{정확률 (Accuracy)} = \frac{\text{올바르게 예측한 샘플 수}}{\text{전체 샘플 수}} = \frac{TP + TN}{TP + TN + FP + FN}정확률 (Accuracy)=전체 샘플 수올바르게 예측한 샘플 수​=TP+TN+FP+FNTP+TN​TP (True Positive): 실제로 긍정인 데이터를 긍정으로 예측한 경우TN (True Negative): 실제로 부정인 데이터를 부정으로 예측한 경우FP (False P.. 2024. 10. 20.
스테밍 vs 레마타이제이션 1. 스테밍(Stemming)정의: 스테밍은 단어에서 접미사나 어미를 단순히 잘라내는 방법으로, 어근(stem)을 추출하는 기법입니다.특징:단순하고 빠른 방식.어근이 반드시 실제 단어일 필요는 없습니다.규칙 기반으로 접미사나 어미를 제거하여 단어를 변환합니다.문법적 정보나 의미는 고려하지 않습니다.예시:"running" → "run""fishing" → "fish""automate" → "automat" (정확한 단어 형태가 아님)장점: 빠르고 대규모 데이터에서 사용하기에 적합.단점: 정확도가 낮고, 단어의 문법적 의미를 무시하며, 결과적으로 비정상적인 어근을 추출할 수 있습니다.2. 레마타이제이션(Lemmatization)정의: 레마타이제이션은 단어를 **사전형(lemma)**으로 변환하는 기법입니다... 2024. 10. 20.
토크나이져 Tokenization 고유한 토큰의 수를 줄이고, 전체 토큰 크기를 줄임으로써 비용 절감 효과를 얻는다는 것은, 모델이 처리해야 하는 토큰의 양이 줄어들면, 계산 비용이 절감된다는 의미이다.1. 토큰화(Tokenization)토큰화는 텍스트를 단어 또는 문장 단위로 분할하는 작업입니다. 이는 모든 텍스트 처리에서 중요한 첫 단계로, 언어에 따라 다르게 처리될 수 있습니다.예상 문제:토큰화가 무엇인지 설명하시오.정답: 토큰화는 텍스트를 단어 또는 문장 단위로 분할하는 과정이다.BPE (Byte-Pair Encoding) 설명:**BPE (Byte-Pair Encoding)**는 단어를 서브워드(subword) 단위로 분할하여 토크나이제이션을 수행하는 방법입니다. 이는 특히 희귀한 단어들을 처리하는 데 유리하며, NLP에서 주로.. 2024. 10. 20.
AI 사용 환경에서 데이터를 보호하는 법을 주제로, Copilot for Microsoft 365를 위한 Microsoft Purview제품 소개 https://learn.microsoft.com/ko-kr/purview/use-microsoft-purview-governance-portal 1부 사용자 프롬프트 모니터링 되고 있다. RAG에 사용되는 문서들의 민감도 자동라벨링 AIHUB (preview)사용자 활동 볼 수 있음 -민감데이터가 프롬프트에 들어있는지 -개인정보등이 애플리케이션통해서 프롬프트로 제공되고 있는지를 볼 수있음 *유해한문서(기밀문서등)인 경우 -> 차단 / 민감한 질문을 하는경우에도 access접근권한 하지 못하는 기능 *조직내에서 ms코파일럿을 사용하는 예시로, 데이터 접근이 있는 파일에 대해 요약을 요청. -파일의 속성 라벨링 / 접근권한에 코파일럿 사용여부 -민감도 자동 라벨링 classification 2부 2024. 3. 27.
The Claude 3 Model Family: Opus, Sonnet, Haiku Claude 3 Claude 3 Haiku는 거의 즉각적으로 응답하는 가장 빠르고 가장 작은 모델이고, Claude 3 Sonnet은 기술과 속도의 이상적인 균형을 이루는 모델이며, Claude 3 Opus는 고도로 복잡한 태스크(추론, 수학, 코딩 분야)에서 최고의 성능을 제공하는 가장 지능적인 모델이다. Claude 3 Haiku 파운데이션 모델 특징 Claude 3 제품군 중 가장 빠르고 컴팩트한 모델로, 거의 즉각적인 반응성과 인간의 상호 작용을 모방한 원활한 생성형 인공 지능(AI) 경험을 위해 설계. 예를 들어, 차트와 그래프가 포함된 arXiv(~1만 개 토큰)에 대한 데이터 밀도가 높은 연구 논문을 3초 이내에 읽을 수 있음 이미지-텍스트 비전 기능을 갖추고 있고, 영어 이외의 여러 언어를.. 2024. 3. 25.
효과적으로 문장을 분리하는 방법론 Document Loader(pdf) 선택지 고려사항 텍스트를 원형 그대로 잘 가져오는가 한글 인코딩 특수문자 메타데이터의 종류를 잘 추출하는가 page_content 페이지번호 표, 차트, 문서의 좌표, 속성(타이틀, 테이블, 이미지, 텍스트) 표나 아미지의 캡션 마크다운형식 문서를 읽는 속도가 얼마나 빠른다 문서의 양이 크다면, 문서 업로드(색인시) 문서를 읽는 속도가 중요 pdfLoader fitz 모든 텍스트를 읽어서 하나의 문자열을 합칠때 유용 페이지 읽는 속도가 가장 빠름 실시간으로 요약본을 받아봐야 할때 = 예를 들면 kbpro웰컴메시지 작성시 유리할듯 페이지 번호 제공 그러나 번호 이외 메타데이터 미지원 이미지만 추출가능 커머스관련 자료에 상품 이미지 그래프나 차트를 이미지로 삽입된 경우 .. 2024. 3. 23.
RAT: Retrieval Augmented Thoughts Elicit Context-Aware Reasoning in Long-Horizon Generation RAT는 초기 CoT와 작업 프롬프트를 사용하여 유용한 정보를 검색하고, 현재 및 과거 CoT에 기반한 정보로 현재 사고 단계를 수정하는 점진적 접근 방식을 사용한다.. 이 전략은 복잡한 장기 문제 해결 과정에서 인간의 추론 과정이랑 비슷하다고 한다. RAG는 문서와 질문 사이의 유사성을 코사인 유사도를 통해 측정하고, 상위 𝑘개 문서를 LLMs의 프롬프트로 피드하여 정확하고 사실적인 컨텍스트를 제공한다. 그러나 복잡한 추론 작업에서는 효과적인 검색 쿼리로 변환하기 어려울 수 있다. RAG는 한 번에 모든 관련 정보를 검색하지만, 이는 후속 추론 및 생성 단계에서 필요한 "사실"이나 정보를 예측하기 어렵다. COT과정을 거친 답변이, 지나치게 디테일하거나 장황한 답변을 보다 구조화 하여 내려줄수도 있어 .. 2024. 3. 23.
반응형