일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- rcv
- 오버워치
- ajoubamboo
- chaining
- mongoDB
- Programming
- Server
- webcrawling
- Cssselector
- web
- Ajou University
- Data Analysis
- Python
- Barplot
- 웹크롤링
- Crawling
- 오버로그
- TensorFlow
- Rfacebook
- 파이썬
- 머신러닝
- Linear Regression
- Web Programming
- flask
- 파이썬3
- R
- 선형회귀
- 크롤링
- python3
- rstudio
- Today
- Total
목록분류 전체보기 (9)
R is well
[ATO] Week1 Practice Machine Learning Study Week1¶: Lec 0 ~ 4¶2017년 12월 27일 안상호¶머신러닝, 텐서 플로우, 선형회귀 목차¶ Lec00 & Lec01: 머신러닝의 기본 + TensorFlow 기초 Lec02: 선형회귀 기초 Lec03: Cost 최소화 알고리즘 Lec04: 다변수 선형 회귀 Optional: Feature Scaling and Normal Equation Lec00: 머신러닝 OT¶ Lec01: 머신러닝의 기본¶Tensorflow의 설치 및 기본적인 operations¶ TensorFlow란? edges와 nodes로 구조화된 graph로 프로그램이 구성 여기서 nodes는 어떤 동작이 일어나는지에 관한 operation이고 (쉽..
back_2 Back-end 교육 2주차 - 실습¶: Flask & MongoDB 응용¶2017년 9월 26일 안상호¶ 1. 지난주 복습¶1.1. Flask¶ 정의 플라스크는 파이썬으로 웹어플리케이션을 만들 수 있게 해주는 Micro Web Framework이다.출처 여기서 Micro라는 것은 핵심기능(서버 구동 및 기타) 만을 제공해주고 DB 선택이나 로그인 같은선택적인 부분은 사용자가 선택해서 확장가능하도록 만든다는 것을 의미합니다.(게임에서 DLC, 확장팩처럼) 1.1.1. Flask Quick Start¶ In [1]: from flask import Flask app = Flask(__name__) @app.route('/') def hello_world(): return 'Hello World..
Python으로 웹 프로그래밍을 하는 시리즈 입니다. html 파일은 코드나, 파일 형태로 제공해드리도록 하겠습니다. Practice_Back Back-end 교육 1주차 - 실습¶: Flask & MongoDB 입문¶2017년 9월 19일 안상호¶ 목차 처음 시작하는 Flask 처음 시작하는 MongoDB 간단한 Blog 예제 1. 처음 시작하는 Flask¶1.1. Quick Start¶ In [25]: from flask import Flask app = Flask(__name__) @app.route('/') def hello_world(): return 'Hello World!' if __name__ == '__main__': app.run(port=4895) * Running on http://..
데이터분석 기초 데이터분석 기초 안상호 2017년 10월 8일 목차 데이터 분석? 데이터 분석 사례 EDA(Exploratory data analysis)기초 1. 데이터 분석? R은 데이터 통계분석 및 시각화에 최적화된 프로그래밍 언어라고 위키백과: 한국어, 위키백과: 영어 등에 소개되어있는 것을 보신적이 있으실 겁니다. 통계 분석에 대한 소개에 앞서서, 그보다 상위 개념인 데이터 분석에 대한 개념을 알고 들어가는 것이 이해에 도움이 되실 것입니다. 데이터 분석 가장 기본이 되는 정의는 raw 데이터로부터 유의미한 information을 만들어내는 분석 행위가 바로, 데이터 분석이라고 할 수 있습니다. 이러한 정의는 MIS(Management information system)이나, DB 관리론(Dat..
R Tip.R아보자R Tip.R아보자안상호2016년 12월 8일이번 포스팅과 다음 포스팅에 이어서 R 과 Rstudio에 대해 제가 알고 있는 간단한 Tip을 공유해보도록 하겠습니다.먼저 R 관련 Tip 입니다.목차R TipGoogle 신은 모든 것을 알고 있다.install.package & libraryChaining Rstudio Tip코드 가독성Ctrl과 ShiftTab오른쪽 창을 써보아요 1. R Tip1.1. Google 신은 모든 것을 알고 있다.‘Google 신은 모든 것을 알고 있다.’ 라는 말은 거의 모든 사람들이 동의 하는 바이고,1학기에 R 수업에서 보여준 유튜브 영상 한편의 제목이 이와 비슷했습니다. 구글 신은 당신의 모든 것을 알고 있다! 어떻게?R을 배우게 되면서, 그리고 ..
Rfacebook.R아보자안상호2016년 12월 5일1. Rfacebook 크롤링Rfacebook 은 facebook API를 사용하여token을 생성해야만 함수가 이용가능합니다.1.1. 패키지 install & library먼저 Rfacebook 패키지를 설치해보도록 하겠습니다.rcv("Rfacebook")## Loading required package: httr## Loading required package: rjson## Loading required package: httpuv## ## Attaching package: 'Rfacebook'## The following object is masked from 'package:methods':## ## getGroup1.2. token 생..
목차 개념 설명 전체 코드 상세 설명 마무리 1. 개념 설명 이번에는 앞서 html 구조를 활용하여 Webcrawling을 하는 것은 맞지만,다른 패키지를 사용하여 더 쉽게 crawling 하게 만들었으며, csv파일로 저장해서 결과물을만들어 보았습니다.이번에 사용한 주요 패키지는 bs4로 BeautifulSoup를 가지고 있습니다.BeautifulSoup는 html 코드의 가독성을 높여주며 find 함수를 이용해 필요한 정보를 crawling할 수 있게 합니다. 2. 전체 코드 이번에는 Amazon에서 물품의 리뷰 데이터를 가져오는 코드를 만들어 보았습니다. # cmd 창에 chcp 65001 실행 import re, requests, csv from bs4 import BeautifulSoup fro..
목차 개념 설명 전체 코드 상세 설명 1. 개념 설명 Webcrawling Webcrawling은 Webcrawler를 통해 웹상에서 정보를 끌어오는 행위를 의미하며, Webcrawler는 다음과 같이 정의 됩니다. 웹 크롤러(web crawler)는 조직적, 자동화된 방법으로 월드 와이드 웹을 탐색하는 컴퓨터 프로그램이다. 웹 크롤러에 대한 다른 용어로는 앤트(ants), 자동 인덱서(automatic indexers), 봇(bots), 웜(worms), 웹 스파이더(web spider), 웹 로봇(web robot) 등이 있다. 출처 : 위키백과 P.S. 요약 웹상의 데이터를 자동화된 방법으로 수집하는 것! Cssselector Cssselector를 설명드리기에 앞서 CSS(Cascading Sty..