[Python/Linux] CentOS 7에서의 Python 3.7 설치 방법 CentOS 7 Linux에는 기본적으로 python 2.7.5 버전이 설치되어 있을 것이다. 하지만 대부분 평소 3 이상의 버전을 많이 사용하기에 python3는 거의 필수적으로 설치해야 할 것이다. 그래서 이번 포스트에서는 python 3 버전을 linux에서 어떻게 설치하는지 CentOS 7 기준으로 알아보도록 하자. 먼저 python3를 설치하는 방법은 다음과 같다. (혹시 root 권한이 아닐 경우 yum 앞에 sudo를 붙여주면 해결된다.) $ yum update -y $ sudo yum install -y https://repo.ius.io/ius-release-el7.rpm $ sudo yum install -y python36u python36u-libs python36u-devel py.. [통계학] 15-1-1. 단일모집단 추론 - 모평균에 대한 통계적 추론(1) 이 포스트는 K-MOOC 숙명여대 여인권 교수님의 통계학의 이해 Ⅱ 강의를 기반으로 작성되었습니다. 지난 13,14에 배운 통계적 추론에 대한 기본적인 내용을 바탕으로 다양한 경우에 대한 통계적 추론을 해보고자 한다. 이번 포스트에서는 단일 모집단이 정규분포일 때 모평균에 대한 통계적 추론을 배워보고자 한다. 모평균 점추정 모집단이 정규분포인 경우, 우선 정규분포의 가정을 데이터가 만족하고 있는지 확인해야 한다. 이는 Shapiro-Wilk test, Jacque-Bera test 를 통해 검정해볼 수 있다. 모집단에서 확률 표본 X1, ... , Xn ~ iid N(μ, σ^2)을 뽑은 후 평균을 추론하는데, 이 확률 표본은 X_i = μ + ε_i, ε_i ~ iid N(0, σ^2)으로 표현하기도 .. [Deep Learning] 기울기 소실과 폭주 (Gradient Vanishing & Exploding) 방지하기 이 포스트는 위키독스의 딥러닝을 이용한 자연어 처리 입문을 기반으로 작성되었습니다. 이번에는 기울기(Gradient)가 사라지거나 폭주할 때를 막아주는 방법인 Gradient Clipping, 가중치 초기화(Weight Initialization), 배치 정규화(Batch normalization), 층 정규화(Layer normalization) 등에 대해 알아보고자 한다. [Deep Learning] 딥러닝 기초 지식 (활성화 함수(activation function), 옵티마이저(optimizer), 역전파(back propagation) 등) 이 포스트는 위키독스의 딥러닝을 이용한 자연어 처리 입문을 기반으로 작성되었습니다. 이번에는 딥러닝을 배우기 전 꼭 알아야 하는 기초 지식인 퍼셉트론(perceptron)부터 Fully-Connected layer, 활성화 함수(Activation function), 순전파(Forward propagation)와 역전파(Back propagation) 과정, 손실함수(Loss function)와 옵티마이저(Optimizer) 종류, epoch, batch size, iteration, 그리고 과적합을 막는 방법 등에 대해 정리해보았다. [NLP] 토픽 모델링 (Topic Modeling : LSA & LDA) 이 포스트는 위키독스의 딥러닝을 이용한 자연어 처리 입문을 기반으로 작성되었습니다. 이번에는 문서의 주제를 찾아주는 토픽 모델링(Topic Modeling) 기법인 잠재 의미 분석 (LSA: Latent Semantic Analysis)과 잠재 디레클레 할당 (LDA: Latent Dirichlet Allocation)에 대해 정리해보았다. [NLP] 문서 유사도 (Document Similarity) 이 포스트는 위키독스의 딥러닝을 이용한 자연어 처리 입문을 기반으로 작성되었습니다. 이번에는 문서 유사도를 구하는 공식들인 코사인 유사도(cosine similarity), 유클리드 거리(euclidean distance), 자카드 유사도(Jaccard similarity)에 대해 알아보자. [통계학] 14-4. 통계적 추론의 개요 - 유의확률(p-value) 이 포스트는 K-MOOC 숙명여대 여인권 교수님의 통계학의 이해 Ⅱ 강의를 기반으로 작성되었습니다. 이번에는 p값, p-value라고 불리는 유의확률이 무엇인지, 그리고 지난번에 다룬 유의수준과 어떤 차이가 있는지 알아보고자 한다. 들어가기에 앞서, 모평균을 검정하는 한 예시를 살펴보자. n개의 확률표본이 어떤 정규분포를 X1, ... , Xn ~ iid N(μ, σ^2) 이렇게 따르고 있다. 이 때 제시하려는 대립가설은 1) H1: μ > μ0, 2) H1: μ α 이면 귀무가설을 유지한다. [NLP] 횟수(count) 기반 단어 표현 방법 이 포스트는 위키독스의 딥러닝을 이용한 자연어 처리 입문을 기반으로 작성되었습니다. 이번에는 단어를 표현하는 방법인 국소 표현(local representation)과 분산 표현(distributed, continuous representation)과 BoW(Bag of Words), DTM(Document Term Matrix) 그리고 TF-IDF를 계산하는 방법에 대해 알아보자. 이전 1 ··· 13 14 15 16 17 18 19 ··· 26 다음 목록 더보기