데이터프레임에서 행 추가하는 방법입니다. 이전에 컬럼(column) 추가에 대해서 포스팅은 해놨는데 row 추가는 하지 않았더라고요 ㅎㅎ 데이터프레임에 row 추가방법 두가지에 대해 포스팅을 하겠습니다. loc로 행 추가하기 append로 행 추가하기 loc로 행 추가하기 컬럼에서 했던 방법 그대로 loc에서도 적용됩니다. 판다스는 일관성이 있어서 비슷비슷합니다. import pandas as pd sample = [('Json','34','Developer')] df = pd.DataFrame(sample,columns=['Name','Age','Job']) df 다음과 같이 만든 데이터 프레임에 행 추가를 해보겠습니다. df.loc[1]=['Harry','25','Analyst'] df 컬럼에 맞게 ..
데이터는 하나씩 쌓이는 형식으로써 저장됩니다. 보통 csv나 엑셀 파일, 데이터베이스 형태로 저장이 되는데 쌓이는 형식이다 보니 종종 내가 원하는 방식으로 규격화되지 않거나 컬럼은 다르지만 값은 중복하는 데이터가 저장되기 마련입니다. 그런데 중복데이터가 눈으로 봐도 전체 데이터의 카테고리 역할을 하는 컬럼이라면 카테고리 역할을 잘 할 수 있게 재배치를 하고 싶은 욕구가 생깁니다. 이럴 때 기준점을 새로 만들어 배치하는 방법이 있습니다. 바로 pivot()입니다. pivot을 이용해 세련되게 데이터를 바꿀 수 있습니다. pivoting 데이터프레임을 구성하려면 index, column, values 세 개의 역할이 반드시 필요합니다. pivoting은 원래 구성된 데이터의 컬럼의 역할 정하기로 볼 수 있습..
판다스 내에서 함수처리 하는 방법입니다. 파이썬으로 할 수 있지만 판다스 메쏘드로 간단한 함수를 정의할 수 있다는 게 큰 장점이고 메모리 절약도 할 수 있습니다. map, apply, applymap 세가지 메쏘드를 알아볼까 합니다. map map 은 수학시간에 배운 합성함수와 같습니다. 인덱스가 잘 맞춰져 있다면 값 전환을 할 수가 있습니다. x, y를 다음과 같이 정의하겠습니다. import pandas as pd x = pd.Series({'one':1,'two':2,'three':3}) y = pd.Series({1:'triangle',2:'square',3:'circle'}) map을 이용해 x에서 y로 값 전환을 합니다. x.map(y) mapd을 반대로 하면 NaN로 나옵니다. y.map(x..
가끔 파이썬에서 SQL 데이터를 작업해야하거나 작업한 데이터를 SQL에 다시 저장해야하는 일이 생깁니다. 파이썬으로 SQL 데이터를 가져오기 위해서 sqlite3을 쓰지만 메모리형식으로 저장되기 때문에 휘발성이 강합니다. 메모리 절약을 위해 sqlite3에서 필요한 데이터만 가져오는 것도 좋지만 지속적으로 저장되어야 하는 경우도 있습니다. 이럴 때 판다스로 SQL을 불러오면 작업에 필요한 내용이 정의가 되기 때문에 작업을 용이하게 할 수 있습니다. 데이터프레임 SQL 데이터로 저장하기 데이터프레임을 SQL데이터(sqlite or db)로 저장을 해보겠습니다. 저장할 데이터는 애플과 마이크로소프트의 가격 데이터입니다. 먼저 저장할 sqlite 파일에 연결을 합니다. import sqlite3 import ..
데이터 분석을 할 때 특정한 값만 변경하고 싶을 때가 있습니다. 그런 경우 replace를 이용해 값을 변경할 수 있습니다. replace는 값에 초점을 맞췄기 때문에 한글이나 word에 있는 찾아바꾸기 기능과 동일합니다. Seires와 DataFrame 모두 적용 가능합니다. Series에서의 replace 적용 간단한 Series를 만들어 살펴보겠습니다 import pandas as pd s = pd.Series([0,1,2,3,4,5]) 1개값 변경 사실 Series에서 값을 변경하려면 해당 값을 지정해주면 끝입니다. s[0] = 3 s 간단하게 값이 변경되서 굳이 replace를 쓸 이유가 없긴 합니다만 위의 방식처럼 지정을 해버리면 확정이 되어서 이전 데이터로 돌아갈수가 없습니다. 하지만, re..
이번 포스팅은 판다스로 CSV 파일 저장, 불러오는 방법입니다. CSV(comma-separated values)는 필드를 쉼표(,)로 구분한 텍스트 데이터 및 텍스트 파일로 이루어져 있습니다. 데이터를 간편하게 저장하기에 용이해서 데이터 전처리 작업을 하게 되면 한번쯤은 다루게 되는 파일형식입니다. CSV 저장하기 데이터프레임 작업을 마치고 CSV로 저장하는 방법입니다. 아래 코드처럼 경로에 파일이름 만들어서 저장합니다. 예를 들어, apple 이라는 파일이름을 지정하고 싶다면 '경로/apple.csv' 를 경로에 넣으시면 됩니다. 기존에 있던 파일이름이 있다면 덮어쓰기가 되니 주의하셔야 합니다. 데이터프레임의 index 설정이 안되어 있으면 숫자로 인덱스가 붙여진 것을 볼 수 있습니다. 이 상태에서 ..
인덱스를 이용한 값 찾는 방법입니다. loc와 iloc에 대한 포스팅을 했었습니다. loc와 iloc는 인덱스에 따른 모든 컬럼의 값을 가져오는데에 초점이 맞춰져 있었는데 at,iat은 정확한 위치의 값을 요청하는 메쏘드입니다. 영어에서도 at은 꼭 집는다는 의미를 담고 있어서 그 부분을 강조한 메쏘드가 아닌가 싶습니다. 아무튼 loc와 iloc가 보다 포괄적인 개념이라면 at,iat는 명확한 개념이라고 볼 수 있습니다. loc와 iloc에서도 at,iat 기능을 그대로 쓸 수 있기 때문에 더 명확한 코드작성을 위해서 at,iat을 쓰는 것이라 생각할 수 있습니다. df.at[index,column] 지정한 인덱스를 이용해 원하는 위치값을 가져올 수 있습니다. 국내 ETF의 하나인 KODEX 200의 데..
Series에서 인덱스로 값 찾는 방법입니다. 인덱스로 값 찾는 방법에는 두가지 방법이 있습니다. loc : 지정한 인덱스로 값 찾기 iloc : 고유 인덱스로 값 찾기 인덱스 가져오기 loc 지정한 인덱스대로 값을 찾는 방법입니다. import pandas as pd s = pd.Series([2,4,6,8,10],index=[10,20,30,40,50]) 값 하나만 가져온다면 숫자나 str 로 나타납니다. s.loc[10] 값을 두개 이상 가져온다면 series로 나타납니다. 타입이 series로 나타나기 때문에 코딩작업시 값이 하나만 나오는지 두개가 나오는지 확인이 필요합니다. 1번째와 3번째 값을 가져오겠습니다. 리스트를 넣어주어야 합니다. s.loc[[10,30]] 범위로 가져오고 싶다면 슬라이..
데이터프레임을 하다가 나타나는 오류입니다. 딕셔너리로 데이터프레임을 만들 때 value 값이 스칼라 값이라서 생기는 문제입니다. 인덱스를 따로 설정해주거나 스칼라 값을 리스트에 넣으면 해결됩니다. 에러발생 다음과 같이 데이터프레임을 만들면 에러가 발생합니다. pd.DataFrame({'col1':1,'col2':2}) 해결방안1 첫번째 해결방안은 value 값을 리스트로 바꿔서 입력합니다. pd.DataFrame({'col1':[1],'col2':[2]}) 해결방안2 두번째 해결방안은 index를 설정합니다. 인덱스는 아무거나 설정하면 됩니다. pd.DataFrame({'col1':1,'col2':2},index=[0]) 인덱스를 변경해도 됩니다. pd.DataFrame({'col1':1,'col2':2..
넘파이로 만든 ndarray를 합치는 방법입니다. 이전 포스팅에서 설명했던 append와는 약간 다릅니다. append는 ndarray가 아닌 숫자나 리스트도 추가할 수 있었다면 np.concatente는 ndarray만을 합칩니다. 파라미터는 다음과 같습니다. np.concatenate(($a_1$,$a_2$,...), axis=0, out=None, dtype=None, casting = "same_kind") $a_1$,$a_2$,... : ndarray이며 반드시 같은 shape여야 합니다. axis : 축을 의미하고 0~2까지 가능하고 디폴트는 0입니다. out : ndarray이며 연결된 배열의 최종 모양을 보여줍니다. 반드시 합쳤을때의 모양과 일치해야합니다. dtype : 타입을 보여주는데 ..
numpy 에서 배열 분할하는 방법에 대해서 알아보겠습니다. 기본적으로 np.split(array, indices or section, axis=0) 으로 분할합니다. 행렬이 3차원이상이면 수직(vertical), 수평(horizontal), 깊이(depth)로 구성되어 있는데 np.split에서는 수직(행),수평(열)만 가능하기에 깊이로 분할이 불가능합니다. 그렇기 때문에 각각에 대해 다른 대체 메쏘드가 존재합니다. axis=0 일때는 np.vsplit() 으로 axis=1 일때는 np.hsplit()으로 axis=2 일때는 np.dsplit() 으로 가능합니다. 또한, np.split는 같은 크기로의 분할만 가능합니다. 예를 들어, (4,4) 행렬이라면 같은 크기로 나눌 수 있는 1,2,4에서만 가능..
빈 데이터프레임 만드는 방법입니다. 기본적으로는 필수성분인 index와 column을 추가해주면 됩니다. import pandas as pd df = pd.DataFrame(index=range(0,원하는갯수), columns = {'column1','column2',...}) index, column 없이 빈 데이터프레임 만든다면.. index와 column을 안 쓰고도 생성할 수 있습니다. empty_df = pd.DataFrame() index와 column이 없는 상태가 되면 다른 데이터프레임을 합칠때 주의를 기울여야 합니다. 간단하게 다른 데이터프레임과 합치려면 append나 concat을 이용하면 합칠 수 있습니다. join, merge는 안 됩니다. df = pd.DataFrame({'col..
데이터 작업을 하다보면 다른 행과 계산할 경우 shift를 이용해 해결할 수 있습니다. for문으로 인덱스를 일일히 돌리지 않아도 되고 필요에 따라 컬럼을 추가해서 눈으로 확인해도 되지만 다른 행과 계산하려고 일일히 컬럼을 추가하는 번거로움을 줄일 수 있습니다. shift() period에 넣은 값만큼 행이 밀립니다. 행전체를 아래로 내리고 싶다면 양의정수를 넣고 위로 올리고 싶다면 음의 정수를 넣습니다. 특정 컬럼을 넣고 싶다면 특정 컬럼만 shift를 진행합니다. 확인을 위해 새로운 컬럼을 만들어 Open 값을 아래로 내린 값을 넣겠습니다. df df['Open_shift'] = df['Open'].shift(1) Open_shift라는 컬럼에 Open 값이 하나씩 내려왔습니다. 바로 전 행과의 계산..
파이썬에서 pyinstaller로 exe 파일을 만들었습니다만 각종 옵션을 넣는 코드를 직접 알아야해서 불편함이 많았는데 이번에 auto-py-to-exe라는 모듈이 나왔습니다. 제 생각엔 pyinstaller의 옵션을 gui로 표현해놓은 하나의 프로그램을 만든 것 같습니다. 아시다시피 파이썬은 아직 불완전한 요소가 많기 때문에 exe는 C로 만드는게 더 낫지만 파이썬도 개선하다보면 안전하고 간편하게 exe를 만드는 날이 오지 않을까 싶습니다. 설치 auto-py-to-exe도 하나의 모듈이라서 pip으로 설치를 합니다. cmd에서 pip으로 라이브러리 설치하듯이 설치합니다. pip install auto-py-to-exe 설치가 끝난 후 auto-py-to-exe를 바로 실행시킬 수 있습니다. 가이드 ..
데이터 프레임을 병합하는 과정에서 중복한 데이터를 빼고 병합하고 싶은 경우가 생길 수 있습니다. merge, concat, join도 병합 메쏘드 중에 하나인데 중복이 있고 column이 똑같은 데이터프레임의 병합에서는 문제가 발생할 수 있습니다. 이는 각각의 메쏘드의 특징이 달라서인데요. merge는 서로 다른 column일 때 합치기 편하고 concat과 append는 row를 하나씩 추가하는 방식입니다. join은 인덱스를 기준으로 column으로 합쳐나가는 방식입니다. 만약 데이터프레임 A와 B의 column은 같은데 중복데이터만 없애고 합치고 싶다면 모든 메쏘드가 적절하지 않을 수 있습니다. 왜냐하면 key가 중복된 상황에서 merge를 하게 되면 merge는 key에서 가능한 모든 경우의 수를..