예문1. I could have come. / 내가 올 수 있었는데.2. I could have done it. / 아 그거 끝낼 수 있었는데.3. You could have cooked. / 너가 요리할 수 있었는데.4. You could have called me. / 나한테 전화할 수 있었는데5. You could have sold it. / 그걸 팔 수 있었는데. -> could have pp는 '크르브'로 발음. 아쉬움의 표현. ~할 수 있었는데, 결국은 못한거. 부정에서 발음 주의! "크르느브" will과 be going to는 큰 차이가 있다. will에는 의지가 들어가야 한다. 즉, 이미 계획되어 있지 않은 일에 쓴다. ex) I'll do my best. 최선을 다 할끄야! be goin..
1. You'd better come / 오는게 낫겠다.2. He'd better pick it up / 그가 주었어야되.3. I'd like to book a ticket / 티켓을 예약하고 싶어요.4. I'd like to check in / 체크인하고 싶어요.5. I don't feel like going / 가고 싶지 않아. -> had better, would like to 모두 축약해서 말하는 특징이 있다. 이를 잘 구분하고, had better는 의무의 쓰임으로 낮은 사람한테 말하는 데 주로 쓰인다. would like to 는 want to 보다 좀 더 격식있는 표현의 원함이다. would like to의 부정형은 잘 쓰지 않고 대신에 don't feel like ~ing 형태로 쓴다. -..
1. He must be smart / 그는 똑똑이야.2. You must be smart / 너는 똑똑해져라.3. You must not come / 오면 안되!4. You don't have to come / 올 필요 없어.5. He doesn't have to go / 그는 갈 필요가 없어. -> Must는 '의무', '추측'으로 쓰인다. 의무로 쓰일때 긍정문에서는 have to와 같지만 부정문에서는 다른 의미를 나타내므로 주의한다. 추측으로 쓰일 때 부정문에서는 can't로 대체하여 쓴다. -> 복습 열심히 하자!
데이터 스터디11/14 20장 자연어 처리 워드 클라우드 : 의미 없음. 쓸 데 없음. 그냥 예쁘게 보여줌. http://wordcloud.kr/ n-gram 모델 : 확률적 언어 모델의 하나, 기계 번역, 오타 수정에 많이 쓰임 Markov Assumption : 연속 상태를 이전 n상태로 예측 가능. n : 몇 개를 보고? / gram : 단위 (Word length …) 문법 : 주어진 문법에 맞게 문장을 생성함. 토픽 모델링 : LDA(Latent Dirichlet Allocation) -> Unsupervised Generative Topic Model. Generative : 데이터가 어떻게 발생되었는지? // Discriminative : 이미 발생된 데이터를 통해 어떻게하지? Topic M..
1. It would be right / 그게 맞을 껄.2. It would be better / 그거 더 좋을 껄.3. I would die for my country / 나는 조국을 위해 죽을꺼야.4. Would you come with me? / 나랑 같이 가주시겠어요?5. Would you drop me off here? / 여기에 내려 주시겠어요? Would는 추측, 의지, 요청으로 모두 쓰인다. 추측일때는 보다 강한 확신. Could와 비교하였을 때 Could는 5:5 라면 Would는 8:2 정도의 느낌이다. 의지일때는 꽤나 강한 의지이다. Will이랑 비교하였을 때, Will은 사실여부를 판단하는 확신이지만, Would는 사실 관계를 떠나 강한 의지를 나타낸다. 요청으로 쓰일 때는, 어떤 ..
데이터 스터디11/07 17장 의사결정나무 (Decision tree) 스무고개 같은 것. 결정 노드, 잎노드 = 끝노드 정보획득 (information gain) : feature 만드는 것. 잘 구분하는 노드를 찾는다. 엔트로피를 최소값으로 만드는 것이 목표다! 분류나무(범주형 결과), 회기나무(숫자 측정 가능) 재귀적 분기 (Recursive partitioning) 가지치기 : 필요없는 결과는 가지 쳐버림. 랜덤포레스트 : Greedy algorithm의 단점 보완. 여러개의 의사결정나무를 만들어 다수결로 결과 결정. 앙상블 학습 : 어느정도 독립적인 수 많은 모델을 만들고 앙상블로 통합하는 알고리즘을 개발. https://www.kdnuggets.com/2017/11/difference-bagg..
데이터 스터디10/31 11장 기계학습 룰이 너무 많아진다. Limitations of Explicitly Programming (1959) Supervised (classification) / Unsupervised learning (clustering) Supervised : regression, binary classification, multi-label classification Overfitting : 현 데이터에만 적중할 때, Underfitting : 너무 안맞을 때 Bias, Variance : 높은 bias는 underfitting / 높은 variance는 overfitting 12장 k-NN (k-Nearest Neighbor) 가장 가까운 이웃 찾기! Weighted K-Neare..
14장 단순 회귀 분석 (Simple Linear Regression) 각 데이터들의 오차의 합이 최소가 되는 선을 찾자. 오차들을 제곱해서 더한다. (상쇄 방지 : 음수가 나오는 경우) : Cost Function Cost Function이 최소가 되는 w와 b를 찾자. least squares 모델 R-squared : 모델이 실제 y값들을 얼마나 잘 대변하고 있냐 / 0-1 사이의 값. 클수록 좋다. 공식을 쓰지 않고 경사하강법으로 : 역행렬을 구해야하는데, Computationally Expansion. 경사하강법 w와 b를 랜덤하게 세팅 w와 b를 Running rate * 편미분 값을 빼서 다시 세팅 15장 다중 회귀 분석 (Multiple Regression) feature를 추가 표준화(R..
데이터 스터디화요일 10/17 경사 하강법 - 기울기가 줄어든다. - 기울기가 낮아지는 방향으로 계속 이동해서 함수의 최대, 최소값을 찾아낸다. - step size : 고정값, 시간에 따라 감소, 이동할 때마다 목적함수를 최소화 … - 단점 : 다차 함수는 로컬 미니멈, 로컬 맥시멈이 있어서 시작점에 따라 문제가 생길 수 있다. - Stochastic Gradient Descent : 작은 토막마다 묶어서 토막을 묶어서 정한다. - 더 많은 GD의 변형이 있다. 데이터 수집 - stdin - stdout : 커맨드 라인으로 입력 받기 - 커맨드 라인에 출력하기. - 파일 읽기 : open(), close(), with(자동으로 close() 해줌) - 웹 스크래핑 (Beautiful Soup, Scra..