일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- Histogram
- pyspark
- lambda
- remix
- web3@1.2.8
- bigdata
- Spark
- web3
- stopwords
- macbook
- HelloWorld
- RDD
- docker
- MAP
- apache-spark
- solidity
- Python
- Greeter
- Ethereum
- Apache Spark
- OpenCV
- 이더리움
- jenv
- node
- geth
- nodejs
- python3
- BlockChain
- word count
- 블록체인
- Today
- Total
목록전체 글 (25)
이것저것 프로그래밍 정리(Macbook)
docker 를 설치후 띄워져 있는 container 확인이나 다른 docker 명령어를 활용할때 다음과 같이 sudo 로 실행해야 되는 경우가 있습니다. sudo 권한 없이 docker를 활용할 수 있도록 변경해보겠습니다. $ sudo docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 기본적으로 docker는 root 권한을 갖거나 docker 그룹의 멤버여야 docker 명령어를 활용 가능합니다. docker 그룹에 아래 명령어를 활용해서 docker group에 사용자를 추가해 주도록 하겠습니다. $ sudo usermod -aG docker $USER 이후 변경된 사항을 활성화 시켜 줍니다. $ newgrp docker 이후 확인해 ..
이번 글에서는 쿠버네티스를 클라우드 환경이 아닌 컴퓨터 두대를 사용해서 on-premise 환경에서 설치하는 방법에 대해 알아보도록 하겠습니다. 개발 환경 computer1 - ubuntu 18.04.5 LTS : master node computer2 - ubuntu 18.04.5 LTS : worker node Docker 설치(master, worker node 모두 설치) 쿠버네티스에서 권장하는 docker의 버전인 18.06.2 버젼을 설치해 주도록 하겠습니다. 모든 설치 및 실행은 터미널에서 이루어집니다. master node를 실행할 컴퓨터와 worker node를 실행할 컴퓨터 두대 모두에 docker를 설치해 주도록 하겠습니다. # root 진입 $ sudo -i # package 관리 ..
ubuntu 설치를 위해서는 ubuntu 설치 USB가 있어야 합니다. 외부 프로그램을 설치 할 수 있겠지만, 설치를 원하지 않기에 간단히 맥북 터미널을 통해 ubuntu 설치 USB를 만들어 보도록 하겠습니다. 1. ubuntu iso 파일 다운 받기 ubuntu.com/download/desktop Download Ubuntu Desktop | Download | Ubuntu Ubuntu is an open source software operating system that runs from the desktop, to the cloud, to all your internet connected things. ubuntu.com 위 링크에 들어가서 필요 버젼의 ubuntu iso 파일을 다운 받습니다...
Logistic Regression(로지스틱 회귀)은 발생할 결과 값이 이진인 경우의 분류에 적용합니다. 예를 들어 환자의 데이터로부터 병의 유무, 이메일이 스팸인지 아닌지 등 이진 분류일 때 적용 가능합니다. 예제를 통해 pyspark에서 Logistic Regression의 사용법을 알아보도록 하겠습니다 건강 지표들을 통해 심장병의 유무에 대해 예측해보고 얼마나 정확한지 측정해 보도록 하겠습니다. 0. 필요 라이브러리 import하기 필요한 라이브러리들을 먼저 import 해놓도록 하겠습니다. 1. 데이터 불러오기 다음 아래의 csv 파일을 DataFrame으로 불러오도록 하겠습니다. 위 사진과 같이 trainDf를 생성해 주었습니다. trainDf의 column들은 다음과 같습니다. 현재 train..