전공 과목 이수1👨‍💻 65

임베디드시스템 buzzer & timer 이론 정리

# Timer - 의미있는 정확한 주파수를 만들기 위해서는 timer 추가도입 - AP 주변 장치로서 가장 중요한 장치, 타이머가 없으면 AP(cpu) 활용이 거의 안된다. - **주변 핵심 장치** - Timer -> Counter -> 논리회로 -> 16bit/32bit binary couter 이진수 계수 - 이진 카운터에 플립플롭, 클럭이 필요하다 # 클럭 발생 방법 - 오실레이터 # 분주기 활용하는 이유 - 분주기 = frequency division = prescaler - 클럭의 기본 주파수를 가청 주파수에 맞춰야(적당하게 낮춰야) 하므로 # 초기값 레지스터 - 카운트 할 때는, 초기값레지스터와 타겟 레지스터가 필요! - 카운트를 시작하는 값 (업카운트/다운카운트) - 카운트가 끝나면 인터럽..

임베디드시스템 터치스크린 이론

** (터치시 style down, 터치 안할시 style up) ** # 터치지점 아는 방법 lcd 아래에는 금속(전선)이 깔려있다. 이 전선들은 저항선분을 가지고 있다. 저항띠(선)에 터치를 할 시 거리에 따른 저항값이 다르다. 터치한 부분의 전압좌표를 알 수 있는데 이를 계산하면 터치좌표를 알 수 있다. - 이때, 전압은 소수점을 가지고 있는 실수값이다. 따라서 ADC(analog digital converner)을 이용해 cpu로 갈때 디지털 값으로 변환해 넘겨준다. # ADC set up (장치준비) - 데이터를 변환하는 시간과 데이터의 형태를 정한다. - 멀티터치가 아닌 모노터치 = 원터치 (좌표값이 하나만 인식이 됨) - 실습키트의 터치스크린은 저항성분으로 이루어져있는 스크린이다. (저항방식..

스크랩핑- 네이버 날씨 / 뉴스 헤더라인

import requests from bs4 import BeautifulSoup def create_soup(url): header = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36"} res = requests.get(url, headers=header) res.raise_for_status() soup = BeautifulSoup(res.text, "lxml") return soup def scrape_weather(): url = "https://search.naver.com/search.naver?sm=tab_h..

크롤링 - 유튜브 5시간짜리 보고 정리

https://www.youtube.com/watch?v=yQ20jZwDjTE # Requests import requests res=requests.get("http://naver.com") res=requests.get("http://ccssbb.tistory.com") res.raise_for_status() # 이상하면 오류발생시키기 print(res.status_code) # if res.status_code == requests.codes.ok: # 상태코드가 200이면 # print("정상입니다") # else: # print("문제가 생겼습니다") print(len(res.text)) with open("mygoogle.html","w",encoding="utf8") as f: # mygo..

파이썬 크롤링 - lxml, cssselector, requests 설치

- 네이버 뉴스스탠드 크롤링 - html내용 가져올때 copy selector 사용 피하기 # lxml 사용 기초 스크랩핑(1) import requests import lxml.html def main(): """ 네이버 메인 뉴스 스탠드 스크랩핑 메인 함수 """ # 세션 사용 권장 # session = requests.Session() # session.get('https://www.naver.com/') # 스크랩핑 대상 URL response = requests.get('https://www.naver.com/') # 신문사 링크 리스트 획득 urls = scrape_news_list_page(response) # 결과 출력 for url in urls: print(url) def scrape_..