분류 전체보기 33

LS PLC 와 파나소닉 EtherCAT 타입 서보팩을 활용한 어플리케이션

티스토리는 네이버 블로그와는 개발 어플리케이션을 자유롭게 작성하는 블로그이기 때문에 격식을 따지지 않고 자유롭게 작성하기로 한다. 1. 주제 - LS PLC와 파나소닉 서보팩 (EtherCAT 타입) 을 활용한 어플리케이션 2. Master - Slave 에 대한 상호 호환성 - LS PLC EtherCAT Master Module 과 Panasonic EtherCAT Slave Module 의 호환성에 대해 검증이 되지 않았다. - LS PLC 와 LS 계열의 서보팩과는 호환성에 대해서 따로 검증하지 않아도 의심의 여지가 없겠지만 Panasonic 은 외산이기 때문에 기술지원에 어려움이 있지 않을까 생각이 들었다. - 하지만 Master Module 이 국산이기 때문에 (특히 LS 계열 제품의 무한..

System Appliation 2025.05.26

[Python] Min-Max 정규화

1. 목표 - 데이터의 Min-Max 정규화를 여러가지 방법에 의해 실행해 본다. 2. 도구 - Google Colaboratory 3. 사전 정보 확인 [Python] Z-Score 표준화 (tistory.com) [Python] Z-Score 표준화 1. 목표 - Z-Score 표준화를 통해 표준정규분포를 나타낼 수 있다. 2. 도구 - Google Colaboratory [Python] 데이터 프레임 CSV 파일로 저장하기 (tistory.com) [Python] 데이터 프레임 CSV 파일로 저장하기 1. 목표 - iotcyuty.tistory.com - Z-Score 표준화에 이어 Mn-Max 정규화에 대해 다뤄볼 예정이다. - 데이터셋은 위 포스팅에 저장된 CSV 파일로 해보도록 한다. 4. 코..

Python 2023.05.09

[Python] 데이터 프레임 CSV 파일로 저장하기

1. 목표 - 파이썬에서 처리한 데이터 프레임을 CSV 파일로 반출하는 것을 목표로 한다. 2. 도구 - Google Colaboratory [Python] 표준정규분포(정규분포) 데이터 생성 (tistory.com) [Python] 표준정규분포(정규분포) 데이터 생성 1. 목표 - 표준 정규분포 데이터를 생성한다. - 향후 이 데이터로 테스트 셋을 설정하여 통계학적 접근을 이끌어 낸다. 2. 도구 - Google Colaboratory 3. 코드 ''' 정규분포 데이터 (테스트 셋) 생성하기 '' iotcyuty.tistory.com 3. 설명 - 위 포스팅에서 생성된 정규분포 데이터 (np.random.randn(n) 을 이용) 를 파일로 저장한다. - 포스팅의 코드를 실행할 때 마다 random 한..

Python 2023.05.09

[Python] Z-Score 표준화

1. 목표 - Z-Score 표준화를 통해 표준정규분포를 나타낼 수 있다. 2. 도구 - Google Colaboratory [Python] 데이터 프레임 CSV 파일로 저장하기 (tistory.com) [Python] 데이터 프레임 CSV 파일로 저장하기 1. 목표 - 파이썬에서 처리한 데이터 프레임을 CSV 파일로 반출하는 것을 목표로 한다. 2. 도구 - Google Colaboratory [Python] 표준정규분포(정규분포) 데이터 생성 (tistory.com) [Python] 표준정규분포(정규분 iotcyuty.tistory.com 3. 상세 목표 및 시나리오 - 저장된 데이터 (데이터 프레임) 을 불러와서 Z-Score 컬럼을 생성해 보도록 한다. - 사이파이 패키지와 넘파이 패키지에 공식을..

Python 2023.05.09

[Python] 표준정규분포(정규분포) 데이터 생성

1. 목표 - 표준 정규분포 데이터를 생성한다. - 향후 이 데이터로 테스트 셋을 설정하여 통계학적 접근을 이끌어 낸다. 2. 도구 - Google Colaboratory 3. 코드 ''' 정규분포 데이터 (테스트 셋) 생성하기 ''' import numpy as np # 넘파이 임포트 import matplotlib.pyplot as plt # 맷플롯립.파이플롯 임포트 import pandas as pd # 판다스 임포트 ##### 입력 변수 선언 ###### mean_a, std_a = 50.0, 4 # 그룹 a 의 평균, 표준편차 입력 mean_b, std_b = 42.5, 3.2 # 그룹 b 의 평균, 표준편차 입력 ##### 표준정규분포데이터 랜덤 생성 ###### s_nordist_a = np..

Python 2023.05.09

[Python] Matplotlib.pyplot 상자수염 그래프 그리기

1. 목표 - 데이터프레임의 지정 열 (Column) 의 사분위 수를 확인한다. - 중복열의 조건을 탐색하여 데이터를 분리한다. - 결과 데이터를 상자수염 그래프 (Box Plot) 그래프를 그려본다. 2. 도구 - Google Colaboratory - Github 타이타닉 데이터 "https://raw.githubusercontent.com/datasciencedojo/datasets/master/titanic.csv" 3. 사전 정보 확인 [Python] Matplotlib.pyplot 히스토그램 그래프 그리기 (tistory.com) [Python] Matplotlib.pyplot 히스토그램 그래프 그리기 1. 목표 - 데이터프레임의 지정 열 (Column) 값을 히스트그램 그래프를 그려본다. 2..

Python 2023.05.08

[Python] Matplotlib.pyplot 히스토그램 그래프 그리기

1. 목표 - 데이터프레임의 지정 열 (Column) 값을 히스트그램 그래프를 그려본다. 2. 도구 - Google Colaboratory 3. 사전 정보 확인 [파이썬] 외부 데이터 (Gibhub) 불러오기와 정보 확인하기 (tistory.com) [파이썬] 외부 데이터 (Gibhub) 불러오기와 정보 확인하기 1. 개요 및 목표 - 판다스 패키지에서 제공하는 read_csv 메소드를 이용해서 외부 데이터를 불러오기. - 불러온 외부 데이터 (데이터 프레임 형태) 의 컬럼 정보, 데이터타입, 결측치 정보, 기초 통계 iotcyuty.tistory.com 4. 코드 작성 import pandas as pd import matplotlib.pyplot as plt # 맷플롯립 패키지 임포트 df = pd...

Python 2023.05.08

[파이썬] 데이터프레임 - 범주형 데이터 빈도수 구하기

1. 목표 - 데이터 프레임의 범주형 데이터 빈도수 구하기 2. 도구 - Google Colaboratory 3. 사전 정보 확인 [파이썬] 외부 데이터 (Gibhub) 불러오기와 정보 확인하기 (tistory.com) [파이썬] 외부 데이터 (Gibhub) 불러오기와 정보 확인하기 1. 개요 및 목표 - 판다스 패키지에서 제공하는 read_csv 메소드를 이용해서 외부 데이터를 불러오기. - 불러온 외부 데이터 (데이터 프레임 형태) 의 컬럼 정보, 데이터타입, 결측치 정보, 기초 통계 iotcyuty.tistory.com 3. 문제 파악 - 위 기초통계량에 데이터를 확인하여 Sex, Pclass 에 대한 정보를 확인하고자 한다. - 위 head(20) 을 통해 데이터프레임 형태를 확인한 결과 Pcla..

Python 2023.05.04

[파이썬] 외부 데이터 (Gibhub) 불러오기와 정보 확인하기

1. 개요 및 목표 - 판다스 패키지에서 제공하는 read_csv 메소드를 이용해서 외부 데이터를 불러오기. - 불러온 외부 데이터 (데이터 프레임 형태) 의 컬럼 정보, 데이터타입, 결측치 정보, 기초 통계량 확인하기 예제 수행. 1-1. 사용 도구 - Google Colaboratory 2-1. 작성 코드 ''' [목표] 1. 판다스 패키지 임포트하기 2. 판다스 패키지 내에 read_csv 메소드 사용하기 3. 데이터 프레임 정보 확인하기기 ''' import pandas as pd # 판다스 패키지 임포트 df = pd.read_csv("https://raw.githubusercontent.com/datasciencedojo/datasets/master/titanic.csv") # 타이타익 데이터..

Python 2023.05.04