감사합니다 (116) 썸네일형 리스트형 신기하게도 적응되더라 (층간소음에 관한 고찰) 내 윗집에 정신 지체 아이가 산다. 지금 이 글을 쓰는 시간이 밤인데도 불구하고 열심히 뛰어댕기고 있다. 참으로 놀라운 진풍경이다. 윗집은 내가 느끼기에는 아파트에서 생활하는 기본 수칙조차 전혀 숙지 하지 못한 거 같다. 윗집 친구들은 기본적으로 걸어다닐 때도 쿵쿵 대면서 걸어다닌다. 하물며 정신이 조금 안타까운 아이는 거의 날아다니는 지경에 이른다. 아마도 윗집에서 장풍을 연구하는 듯 싶다. 혹은 한국의 최신 거주지인 아파트가 어느 정도의 내구성을 가지고 있는지 튼튼한 두 다리로 직접 실험해주고 있음이 틀림 없다. 윗집에 무례한 친구들이 주거한다는 사실을 알게 되었을 때, 엄청난 층간소음을 처음 들었을 때 나의 반응은 아주 기본적인 인간의 반응이었다. 분노 -> 부정 등등 힘든 일을 맞이하는 인간의.. 술친구 최근에 어떤 나이 지긋한 분을 만나서 술을 먹었다. 처리해야할 게 있어서 어쩔 수 없었다. 굉장히 다행스럽게도, 숙취는 없었다. 그건 그나마 다행이다. 사실 특정한 목적이 있어서 만난 모임이지만, 그 사람에게 술이 매우 중요한 목적인 것처럼 보였다. 아마도 술을 마시면서 일을 진행시켜 나가는 스타일인 것처럼 보였는데, 나는 사회짬도 별로 없고 한국식의 '다 같이, 함께' 문화를 별로 좋아하지 않는 편이라 씁쓸한 뒷맛이 남았다. 사실 이 정도면 데미지도 수용 가능한 편이고 일만 진행된다면 나에게는 굉장한 이득이지만, 술을 마시고 얘기를 나누어야만 일이 진행된다는 한국의 꼰대식 문화는 잘 이해가 되지 않는다. 함께 술을 마시고 접대를 해야만 계약서에 싸인을 받을 수 있고 서로 형, 동생 하는 식으로 가까워지.. ringle 진짜 찍먹 리얼 후기 *이 내용은 언제나 참고용입니다 다만 결제 하시기 전에 꼭 이걸 보시면 좋을 거 같아요 바쁘신 분들을 위해서 딱 한 문장 요약해드릴게요 "화상 영어 수업 딱 2~3번만 하실 거면 ringle 하시고 10번 넘게 꾸준히 하실 거면 그냥 다른 거 하세요" 저 같은 경우는 결제할 당시 눈에 들어온 거 중에 가장 비싼 걸로 결제할만큼 영어 자체에 진심이었습니다 애초에 영어를 늘리는 게 필요하기도 했고 절박한 마음도 있었기 때문에 꾸준히 하는 게 베스트 라는 생각에 비싼 걸 결제했어요 그리고 지금 speaking이나 writing이나 워낙 기본 베이스가 탄탄한 상태라 수업 준비하는 거 자체도 전혀 어려움이 없었구요 근데 진짜 튜터들이 수업 연속 세 번으로 취소해버리니까 더 이상 ringle로 하고 싶은 마.. 드림핵 sint 이론적 기반은 아주 간단하다 Type Error라는 간단한 취약점에 의거하고 있는데 이는 개발자가 기본적으로 선택해주는 변수 크기에서 나오는 취약점이라고 할 수 있다 컴파일러는 개발자가 정해준 변수 크기를 따라서 메모리를 불러다가 계산하는데 만약 더해진 값이든 조작한 값이든 그 값이 그 크기 자체를 벗어나게 되면 값이 적어지든 커지든 하는 문제가 발생할 수 있다 이 문제는 버퍼 오버플로우를 일으키면 flag를 주겠다고 간단한 요구를 하고 있다 signal(SIGSEGV, get_shell); 그런데 밑에 보니 if (size > 256 || size < 0) { printf("Buffer Overflow!\n"); exit(0); } 이런 식으로 나름 버퍼 오버플로우를 감지하려 하고 있다 size.. 대나무숲 1 돌파 import requests from bs4 import BeautifulSoup LIMIT = 50 URL = "http://www.indeed.com/jobs?q=python&limit={LIMIT}" def extract_indeed_pages(): result = requests.get(URL) soup = BeautifulSoup(result.text, "html.parser") pagination = soup.find("div", {"class":"pagination"}) links = pagination.find_all('a') pages = [] for link in links[:-1]: pages.append(int(link.string)) max_page = pages[-1] r.. extract company import requests from bs4 import BeautifulSoup LIMIT = 50 INDEED_URL = "http://www.indeed.com/jobs?q=python&limit={LIMIT}" def extract_indeed_pages(): result = requests.get(INDEED_URL) soup = BeautifulSoup(result.text, "html.parser") pagination = soup.find("div", {"class":"pagination"}) links = pagination.find_all('a') pages = [] for link in links[:-1]: pages.append(int(link.string)) max_page.. extract title jobs import requests from bs4 import BeautifulSoup LIMIT = 50 INDEED_URL = "http://www.indeed.com/jobs?q=python&limit={LIMIT}" def extract_indeed_pages(): result = requests.get(INDEED_URL) soup = BeautifulSoup(result.text, "html.parser") pagination = soup.find("div", {"class":"pagination"}) links = pagination.find_all('a') pages = [] for link in links[:-1]: pages.append(int(link.string)) max_page.. extract last page import requests from bs4 import BeautifulSoup LIMIT = 50 INDEED_URL = "http://www.indeed.com/jobs?q=python&limit={LIMIT}" def extract_indeed_pages(): result = requests.get(INDEED_URL) soup = BeautifulSoup(result.text, "html.parser") pagination = soup.find("div", {"class":"pagination"}) links = pagination.find_all('a') pages = [] for link in links[:-1]: pages.append(int(link.string)) max_page.. 이전 1 ··· 4 5 6 7 8 9 10 ··· 15 다음