8월, 2020의 게시물 표시

구름IDE로 Flask API 컨테이너 생성하는 방법입니다.

이미지
  # Howto   # Goormide   # Create   # Flask   # Container   # Convert   # Google   # Colaboratory 1. 컨테이너 생성 2.소프트웨어 스택 선택 → Flask 3.추가모듈/패키지 설치 4. 파이썬 소스 코드를 적용 5.터미널에서 Flask API 실행 참고로 추가모듈 MySQL을 설치 하지 않을 경우 pip3 install pymysql 명령어를 실행해도 오류가 발생합니다.

구글코랩) Flask REST API 데몬을 실행하는 소스를 공유합니다.

이미지
  파이썬소스, MySQL sql문, 샘플csv 파일로 구성되어 있습니다. 1)시도별 코로나 현황 집계 (누적순위) 2)특정 지역/년/월 평균 온습도3)특정 지역/년/월 평균 실측파고 4)최근 KMA 코로나팩트 데이터 5)특정 지역/년/월 온습도 중간값 6)특정 지역/연령별/성별 실종자 카운트 #Share the source #Simple #Statistics #Python #Flask #Restful 자세한 소스는 아래의 사이트를 참조하세요 https://github.com/gyunseul9/sqlcolab

구글코랩) Python, Flask, Restful, CRUD, MySQL, NGROK 등 소스를 공유합니다.

이미지
  ...(중략) app = Flask(__name__) api = Api(app) run_with_ngrok(app) api.add_resource(confirm_api, '/' ) api.add_resource(create_guardian, '/guardian/create/' ) api.add_resource(list_guardian, '/guardian/list/' ) api.add_resource(search_guardian, '/guardian/search/' ) api.add_resource(update_guardian, '/guardian/update/' ) app.run() 자세한 소스는 아래의 사이트를 참고하세요. https://github.com/gyunseul9/crudcolab

구글코랩) 심플 웹서버 소스를 공유합니다. (Google Colaboratory, Flask, JINJA2, MySQL, NGROK)

이미지
  ...(중략) app = Flask(__name__) run_with_ngrok(app) @app.route ( '/' ) def   index ():    return  render_template( 'index.html' ) @app.route ( '/list' ) def   list ():   keyword = request.args.get( 'keyword' , default =  'coronafact' ,  type  =  str )   limit = request.args.get( 'limit' , default =  '10' ,  type  =  str )        conn = db_access()        data = exec_list(conn,keyword,limit)   session = {}   session[ 'keyword' ] = str(keyword)   session[ 'limit' ] = str(limit)       return  render_template( '/coronafact.html' ,data=data,session=session) app.run() 자세한 소스는 아래의 사이트를 참고하세요 https://github.com/gyunseul9/colabweb

구글코랩) 심플 REST API서버 소스를 공유합니다. (Google Colaboratory, Flask, MySQL, NGROK)

이미지
  ... (중략) class create_user ( Resource ): def get ( self ): #return {'status':'success'} try : parser = reqparse.RequestParser() parser.add_argument( 'uid' , type = str ) parser.add_argument( 'name' , type = str ) parser.add_argument( 'tel' , type = str ) parser.add_argument( 'birthday' , type = str ) parser.add_argument( 'pid' , type = str ) args = parser.parse_args() uid = args[ 'uid' ] name = args[ 'name' ] tel = args[ 'tel' ] birthday = args[ 'birthday' ] pid = args[ 'pid' ] # print(uid,name,tel,birthday,pid) conn = pymysql.connect( host=HOST, user=USER, password=PASSWORD, db=DATABASE, charset=CHARSET, port=int(PORT), cursorclass=pymysql.cursors.DictCursor) # print(conn) cnt = exec_select(conn,

구글코랩) 공공데이터 포탈의 한국환경공단, 대기오염정보 오픈API 연동 소스를 공유합니다. (XML 파싱 MySQL 연동 등)

이미지
import  pymysql import  requests import  configparser from  bs4  import  BeautifulSoup from  datetime  import  datetime from  google.colab  import  drive from  xml.etree  import  ElementTree  as  et ...(중략) area = {      1 :[ '경기' , 31 ],      2 :[ '강원' , 17 ],      3 :[ '충북' , 11 ],      4 :[ '서울' , 25 ],      5 :[ '부산' , 16 ],      6 :[ '대구' , 10 ],      7 :[ '인천' , 9 ],      8 :[ '광주' , 5 ],      9 :[ '대전' , 5 ],      10 :[ '울산' , 5 ],      11 :[ '충남' , 15 ],      12 :[ '전북' , 14 ],      13 :[ '전남' , 21 ],      14 :[ '경북' , 14 ],      15 :[ '경남' , 18 ],      16 :[ '제주' , 2 ],      17 :[ '세종' , 1 ]     } numOfRows = area.get( 15 )[ 1 ]  #지역 수 sidoName = area.get( 15 )[ 0 ]  #경남 params = { 'pageNo' :  1 ,  'numOfRows' : numOfRows,  'sidoName' : sidoName,  'searchCondition' :  'HOUR' } resp = requests.get(URL+ &#

구글코랩) 안전Dream 실종아동 등 검색 오픈API 소스를 공유합니다. (구글드라이브연동, 이미지 수집 소스)

이미지
import  re import  requests from  bs4  import  BeautifulSoup import  json from  datetime  import  datetime from  PIL  import  Image import  urllib.request from  google.colab  import  drive import  pandas  as  pd ...(중략) url =  'http://www.safe182.go.kr/api/lcm/findChildListT.do' esntlId =  ''   #고유아아디 (필수) authKey =  ''   #인증키 (필수) rowSize =  10   #게시물수, 100개까지 (필수) returnURL =  'http://13.124.230.158'   #응답URL (필수) nowPage =  0   #현재페이지 writngTrgetDscds =  ''   #대상:정상아동(18세미만)->010,지적장애인->060,치매질환자->070,예:writngTrgetDscds=010 #writngTrgetDscds[] = {'010', '060', '070'}; sexdstnDscd =  0   #성별:남자1,여자2 nm =  ''   #이름 detailDate1 =  ''   #시작발생일:2019-01-01 detailDate2 =  ''   #종료발생일 age1 =  00   #시작당시나이 age2 =  0   #종료당시나이 occrAdres =  ''   #발생장소 params = {      'esntlId' : esntlId,       'authKey' : authKey,       'rowSize' : rowSize,       'returnURL'

(구글코랩) COVID-19 실시간 상황 수치 데이터를 MySQL 연동 소스를 공유합니다.

  import  os import  re import  time import  pymysql import  facebook import  requests import  configparser import  urllib.request import  pandas  as  pd from  PIL  import  Image from  bs4  import  BeautifulSoup from  datetime  import  datetime from  google.colab  import  drive ...(중략) try :   conn = pymysql.connect(       host=HOST,       user=USER,       password=PASSWORD,       db=DATABASE,       charset=CHARSET,       port=int(PORT),       cursorclass=pymysql.cursors.DictCursor)      resp = requests.get(TRG_URI)   soup = BeautifulSoup(resp.text,  'lxml' )   udate = scrappy(soup,  'udate' )   confirmator = scrappy(soup,  'confirmator' )   dead = scrappy(soup,  'dead' )   suspected = scrappy(soup,  'suspected' )   inspection = scrappy(soup,  'inspection' )        print ( 'udate: ' , udate)    print ( 'confirmator: ' , confirmator)    print ( 'dead: ' , dead)    print ( 'suspected: ' , suspected)    print

(구글코랩) 뉴스기사 이미지 다운로드, CSV 텍스트마이닝, 페이스북 피드, 팀즈 웹훅 소스를 공유합니다.

  mport  os import  re import  time import  facebook import  requests import  configparser import  urllib.request import  pandas  as  pd from  PIL  import  Image from  bs4  import  BeautifulSoup from  datetime  import  datetime from  google.colab  import  drive ... (중략) def   write_csv ( df ):   savename = CSV_URI+ 'platum.csv'      tmp = []   tmp = savename.split( '/' )   tmp2 = tmp[ len (tmp) -1 ]       if  os.path.exists(savename):      print ( 'Add data' , tmp2)     df_read = pd.read_csv(savename, header= None )          last_row = df_read.tail( 1 )     csv_seq = last_row.iloc[:, 0 ]     result = compare_seq(int(csv_seq.values[ 0 ]),int(df[ 'seq' ].values[ 0 ]))    else  :      print ( 'Make file' , tmp2)     result =  0         if  result:      print ( 'Overlap contents!!!' )    else :     df.to_csv(savename, header= False , index= False , mode= 'a' , encoding= 'utf-8-sig' )       return  result ... (중략) url =  'h

파이썬, 구글 코랩, 코로나 크롤링, 스크래핑, 시도별 확진자 현황

https://github.com/gyunseul9/coronagathering import os import re import requests import urllib.request import pandas as pd from datetime import datetime from bs4 import BeautifulSoup from  google.colab  import  drive c=drive.mount( '/content/drive' ) CSV_URI =  'drive/My Drive/development/test/' def overlap_param(csv_udate, udate): if csv_udate == udate: print('Overlap Record') return 1 else: print('Add Record') return 0 def make_date(string): datetime.today() _year = datetime.today().strftime("%Y") numbers = re.findall('\d+', string) _month = numbers[0] _day = numbers[1] _hour = numbers[2] return _year+_month+_day+_hour def remove_keyword(string): string = string.replace('(', '') string = string.replace(')', '') return string def write_csv(df): savename = CSV_URI+'coronastatus.csv' tmp = [] tmp = savename.split('/') tmp2 = tmp[len(tmp)-1] if o