본문 바로가기

AI Study13

[논문구현] AER: Auto-Encoder with Regression for TimeSeries Anomaly Detection 0. Source Code 위치 (Orion) 앞써 포스팅에서AER 관련된 논문리뷰를 하였고 소스코드는 아래 링크에 자세히 올라와져 있다https://github.com/sintel-dev/Orion/tree/master GitHub - sintel-dev/Orion: Unsupervised time series anomaly detection libraryUnsupervised time series anomaly detection library - sintel-dev/Oriongithub.com aer관련된 튜토리얼은 아래 두 경로에 있는데Orion/tutorials/Orion_on_Custom_Data.ipynbOrion/tutorials/pipelines/aer.ipynb 이 경로가Orion/.. 2025. 8. 4.
[논문리딩] AER: Auto-Encoder with Regression for TimeSeries Anomaly Detection 공정 이상치 탐지를 위해 논문 서칭을 하다LSTM - DT + LSTM-AE 라고 하여서 읽어 보았다 핵심요약AER : Reconstruction-based(Auto Encoder) + Prediction-based(Regression)- 방법 : "Joint objective function"- 출력 : Reconstruction Anomaly Score +Prediction Anomaly Score- 추가 Technic : Masking & bi-directional 논문 한 줄 평오랜만에 읽어보는 Well-made 논문인 것 같음 심지어 Anomaly Detection 초심자가 읽어도 될 만큼기존 기술들을 잘 정리해주고 설명해줌 + 코드까지 있는거 합격끙끙 공부하면서 꾸역꾸역 읽고 마지막 Conc.. 2025. 7. 29.
[2] Data Augmentation 과 Pre-training / Self training "Deep Learning은 항상 배고프다" Data Augmentation -> pytorch 로도 구현이 되어 있고 Opencv나 Numpy를 이용할 수 있다 Affine Transforamtion (Shear Transformation) 직사각형의 이미지를 약간 평행사변형 + 회전 시킨다고 볼 수 있다 이거 기준들이 좀 애매하기 때문에 전 이미지의 세 점을 이후 이미지의 세 점과 매핑시키는 방싣ㄱ으로 구현 rows, cols, ch = image.shape pts1 = np.float32([[50,50],[200,50],[50,200]]) pts2 = np.float32([[10,100],[200,50],[100,250]]) M = cv2.getAffineTransform(pts1,pts2) she.. 2024. 2. 12.
[1] Computer Vision 소개 및 대표 모델 Machine Learning VS Deep Learning Machine Learning Input -> Feature Extraction( 전문가가 수행 ) -> Machine Learning (classification) -> Output Deep Learning (Machine Learning 기법 중 하나) Input -> Deep Learning (Feature Extraction -> classfication) -> Output Convolutional Neural Network (CNN) IDEAL (ex K-NN (K-Nearest Neighbors)) K-NN은 정의하고자 하는 Data 주변에 어떤 Data들이 분포하는 지를 보는 것 (ex 주변에 개가 많으니 개 이다! ) 전체 경우에.. 2024. 2. 12.
[paper] Transformer 실습을 통해 익히는 Pytorch 기초 (Attention is All you Need) Transformer 이전 (RNN LSTM) Naive sequence model t-1, t-2..........1 를 고려한 xt의 확률 이전 데이터들을 전부 고려해서 다음을 찾는 방식 (초기는 할만한데 이후로는 너무 정보가 늘어난다) Naive sequence model -> Autoregressive model 전부 고려하는게 빡세면 타우개 만큼만 최신데이터를 보면 되지 않나? (갱신의 느낌) 대표적인 예시가 Markov model이디 (타우가 1) Morkov model(first order autoregressive model) 이름에서도 알 수 있다시피 타우가 1로 바로 전 과거만 보는 모델이다 Markow assumption 을 가진다 -> 강화학습의 MDP (Markov Decision.. 2023. 8. 22.
Decision Tree, Random Forest, ExtraTressClassifier 1. Decision Tree (결정트리) 흔히 의사결정나무라고 한다 분류와 회귀 모두 가능한 지도 학습 모델 중에 하나이다 쉽게 스무고개를 한다고 생각하면 된다 한번의 분기마다 T/F 두개로 분기한다 여기서 질문을 담은 것이 Node라고 하고 첫 질문을 Root Node 맨 마지막 노드를 Terminal Node 혹은 Leaf Node라고 한다 이를 통해서 어떻게 나누냐 이렇게 데이터를 가장 잘 구분할 수 있는 질문을 기준으로 나누고 이어서 한번더 나눈다. 느낌이 오다 싶히 조금만 깊게 해도 쉽게 오버피팅이 된다 이러한 것을 막기 위해서 Pruning이라는 방법(노드의 분기 개수를 제한 하는 것(최대 깊이 혹은 분기 노드 개수를 지정)) 그러면 결정트리는 어떻게 학습을 하냐 불순도(Impurity)를 .. 2023. 8. 17.