Pandas和numpy模糊查詢與替換

主要用到的工具:Pandas 、fuzzywuzzy
Pandas:是基于numpy的一種工具,專門為分析大量數(shù)據(jù)而生,它包含大量的處理數(shù)據(jù)的函數(shù)和方法,
以下為pandas中文API:
在這個速查手冊中,我們使用如下縮寫:

df:任意的Pandas DataFrame對象
s:任意的Pandas Series對象

同時我們需要做如下的引入:

import pandas as pd
import numpy as np

導(dǎo)入數(shù)據(jù)

pd.read_csv(filename):從CSV文件導(dǎo)入數(shù)據(jù)
pd.read_table(filename):從限定分隔符的文本文件導(dǎo)入數(shù)據(jù)
pd.read_excel(filename):從Excel文件導(dǎo)入數(shù)據(jù)
pd.read_sql(query, connection_object):從SQL表/庫導(dǎo)入數(shù)據(jù)
pd.read_json(json_string):從JSON格式的字符串導(dǎo)入數(shù)據(jù)
pd.read_html(url):解析URL、字符串或者HTML文件,抽取其中的tables表格
pd.read_clipboard():從你的粘貼板獲取內(nèi)容,并傳給read_table()
pd.DataFrame(dict):從字典對象導(dǎo)入數(shù)據(jù),Key是列名,Value是數(shù)據(jù)

導(dǎo)出數(shù)據(jù)

df.to_csv(filename):導(dǎo)出數(shù)據(jù)到CSV文件

df.to_excel(filename):導(dǎo)出數(shù)據(jù)到Excel文件

df.to_sql(table_name, connection_object):導(dǎo)出數(shù)據(jù)到SQL表

df.to_json(filename):以Json格式導(dǎo)出數(shù)據(jù)到文本文件

創(chuàng)建測試對象

pd.DataFrame(np.random.rand(20,5)):創(chuàng)建20行5列的隨機(jī)數(shù)組成的DataFrame對象
pd.Series(my_list):從可迭代對象my_list創(chuàng)建一個Series對象
df.index = pd.date_range('1900/1/30', periods=df.shape[0]):增加一個日期索引

查看、檢查數(shù)據(jù)

df.head(n):查看DataFrame對象的前n行
df.tail(n):查看DataFrame對象的最后n行
df.shape():查看行數(shù)和列數(shù)
df.info():查看索引、數(shù)據(jù)類型和內(nèi)存信息
df.describe():查看數(shù)值型列的匯總統(tǒng)計
s.value_counts(dropna=False):查看Series對象的唯一值和計數(shù)
df.apply(pd.Series.value_counts):查看DataFrame對象中每一列的唯一值和計數(shù)

數(shù)據(jù)選取

df[col]:根據(jù)列名,并以Series的形式返回列
df[[col1, col2]]:以DataFrame形式返回多列
s.iloc[0]:按位置選取數(shù)據(jù)
s.loc['index_one']:按索引選取數(shù)據(jù)
df.iloc[0,:]:返回第一行
df.iloc[0,0]:返回第一列的第一個元素
df.values[:,:-1]:返回除了最后一列的其他列的所以數(shù)據(jù)
df.query('[1, 2] not in c'): 返回c列中不包含1,2的其他數(shù)據(jù)集

數(shù)據(jù)清理

df.columns = ['a','b','c']:重命名列名
pd.isnull():檢查DataFrame對象中的空值,并返回一個Boolean數(shù)組
pd.notnull():檢查DataFrame對象中的非空值,并返回一個Boolean數(shù)組
df.dropna():刪除所有包含空值的行
df.dropna(axis=1):刪除所有包含空值的列
df.dropna(axis=1,thresh=n):刪除所有小于n個非空值的行
df.fillna(x):用x替換DataFrame對象中所有的空值
s.astype(float):將Series中的數(shù)據(jù)類型更改為float類型
s.replace(1,'one'):用‘one’代替所有等于1的值
s.replace([1,3],['one','three']):用'one'代替1,用'three'代替3
df.rename(columns=lambda x: x + 1):批量更改列名
df.rename(columns={'old_name': 'new_ name'}):選擇性更改列名
df.set_index('column_one'):更改索引列
df.rename(index=lambda x: x + 1):批量重命名索引

數(shù)據(jù)處理:Filter、Sort和GroupBy

df[df[col] > 0.5]:選擇col列的值大于0.5的行

df.sort_values(col1):按照列col1排序數(shù)據(jù),默認(rèn)升序排列

df.sort_values(col2, ascending=False):按照列col1降序排列數(shù)據(jù)

df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,后按col2降序排列數(shù)據(jù)

df.groupby(col):返回一個按列col進(jìn)行分組的Groupby對象

df.groupby([col1,col2]):返回一個按多列進(jìn)行分組的Groupby對象

df.groupby(col1)[col2]:返回按列col1進(jìn)行分組后,列col2的均值

df.pivot_table(index=col1, values=[col2,col3], aggfunc=max):創(chuàng)建一個按列col1進(jìn)行分組,并計算col2和col3的最大值的數(shù)據(jù)透視表

df.groupby(col1).agg(np.mean):返回按列col1分組的所有列的均值

data.apply(np.mean):對DataFrame中的每一列應(yīng)用函數(shù)np.mean

data.apply(np.max,axis=1):對DataFrame中的每一行應(yīng)用函數(shù)np.max

數(shù)據(jù)合并

df1.append(df2):將df2中的行添加到df1的尾部
df.concat([df1, df2],axis=1):將df2中的列添加到df1的尾部
df1.join(df2,on=col1,how='inner'):對df1的列和df2的列執(zhí)行SQL形式的join

數(shù)據(jù)統(tǒng)計

df.describe():查看數(shù)據(jù)值列的匯總統(tǒng)計

df.mean():返回所有列的均值

df.corr():返回列與列之間的相關(guān)系數(shù)

df.count():返回每一列中的非空值的個數(shù)

df.max():返回每一列的最大值

df.min():返回每一列的最小值

df.median():返回每一列的中位數(shù)

df.std():返回每一列的標(biāo)準(zhǔn)差

以下為數(shù)據(jù)處理的代碼:

#!/usr/bin/python
# -*- encoding: utf-8
 
import numpy as np
import pandas as pd
from fuzzywuzzy import fuzz
from fuzzywuzzy import process
 
 
def enum_row(row):
    print(row['state'])  #對state這一列做枚舉
 
 
def find_state_code(row):
    if row['state'] != 0:            # 如果這個state的名字存在,就用state的名字與states列表中的值選擇一個最接近的,如果小于80分,直接舍棄,大于80才返回
        print(process.extractOne(row['state'], states, score_cutoff=80))
 
 
def capital(str):     # 把str這個字符串,第一個字母大寫,其余小寫
    return str.capitalize()
 
 
def correct_state(row):
    if row['state'] != 0:    # 如果這個state的名字存在,就用state的名字與states列表中的值選擇一個最接近的,如果小于80分,直接舍棄,大于80才返回
        state = process.extractOne(row['state'], states, score_cutoff=80)
        if state:     # 如果為真,則找到了一個相關(guān)性的州名
            state_name = state[0]  #  選擇用找到的這個州名數(shù)據(jù)
            return ' '.join(map(capital, state_name.split(' ')))  # 先按空格分開(有的州名中間有空格)單詞,然后每個單詞首字母大寫
    return row['state']
 
 
def fill_state_code(row):
    if row['state'] != 0:
        state = process.extractOne(row['state'], states, score_cutoff=80)
        if state:
            state_name = state[0]
            return state_to_code[state_name]   # 返回這個州名的value,即縮寫
    return ''
 
 
if __name__ == "__main__":
    pd.set_option('display.width', 200)    # 橫向最多顯示多少個字符, 一般80不適合橫向的屏幕,平時多用200.
    data = pd.read_excel('sales.xlsx', sheetname='sheet1', header=0)  # 讀取excel表
    print('data.head() = \n', data.head())  # 默認(rèn)顯示前五行
    print('data.tail() = \n', data.tail())  # tail顯示后五行
    print('data.dtypes = \n', data.dtypes)  # 數(shù)據(jù)類型
    print('data.columns = \n', data.columns)# 顯示第一行行名
    for c in data.columns:
        print(c, end=' ')  # 輸出第一行行名,中間以空格隔開
    print()  #相當(dāng)于回車
    data['total'] = data['Jan'] + data['Feb'] + data['Mar']  # Jan、Feb、Mar三列的值相加得到一個total
    print(data.head())
    print(data['Jan'].sum())  # Jan這一列的值相加
    print(data['Jan'].min())  # Jan這一列的最小值
    print(data['Jan'].max())  # Jan這一列的最大值
    print(data['Jan'].mean()) # Jan這一列的平均值
 
    print('=============')
    # 添加一行
    s1 = data[['Jan', 'Feb', 'Mar', 'total']].sum()  # s1包含四個值,分別是這四列的和
    print(s1)
    s2 = pd.DataFrame(data=s1)
    print(s2)
    print(s2.T)
    print(s2.T.reindex(columns=data.columns))   # 將s2進(jìn)行轉(zhuǎn)置輸出
    # 即:
    s = pd.DataFrame(data=data[['Jan', 'Feb', 'Mar', 'total']].sum()).T
    s = s.reindex(columns=data.columns, fill_value=0)
    print(s)
    data = data.append(s, ignore_index=True)
    data = data.rename(index={15:'Total'})
    print(data.tail())
 
    # apply的使用
    print('==============apply的使用==========')
    data.apply(enum_row, axis=1)         #  axis=0時對每一列做變換,axis=1時對每一行做變換
 
    # 事先寫好以state為單位的編碼字典
    state_to_code = {"VERMONT": "VT", "GEORGIA": "GA", "IOWA": "IA", "Armed Forces Pacific": "AP", "GUAM": "GU",
                     "KANSAS": "KS", "FLORIDA": "FL", "AMERICAN SAMOA": "AS", "NORTH CAROLINA": "NC", "HAWAII": "HI",
                     "NEW YORK": "NY", "CALIFORNIA": "CA", "ALABAMA": "AL", "IDAHO": "ID",
                     "FEDERATED STATES OF MICRONESIA": "FM",
                     "Armed Forces Americas": "AA", "DELAWARE": "DE", "ALASKA": "AK", "ILLINOIS": "IL",
                     "Armed Forces Africa": "AE", "SOUTH DAKOTA": "SD", "CONNECTICUT": "CT", "MONTANA": "MT",
                     "MASSACHUSETTS": "MA",
                     "PUERTO RICO": "PR", "Armed Forces Canada": "AE", "NEW HAMPSHIRE": "NH", "MARYLAND": "MD",
                     "NEW MEXICO": "NM",
                     "MISSISSIPPI": "MS", "TENNESSEE": "TN", "PALAU": "PW", "COLORADO": "CO",
                     "Armed Forces Middle East": "AE",
                     "NEW JERSEY": "NJ", "UTAH": "UT", "MICHIGAN": "MI", "WEST VIRGINIA": "WV", "WASHINGTON": "WA",
                     "MINNESOTA": "MN", "OREGON": "OR", "VIRGINIA": "VA", "VIRGIN ISLANDS": "VI",
                     "MARSHALL ISLANDS": "MH",
                     "WYOMING": "WY", "OHIO": "OH", "SOUTH CAROLINA": "SC", "INDIANA": "IN", "NEVADA": "NV",
                     "LOUISIANA": "LA",
                     "NORTHERN MARIANA ISLANDS": "MP", "NEBRASKA": "NE", "ARIZONA": "AZ", "WISCONSIN": "WI",
                     "NORTH DAKOTA": "ND",
                     "Armed Forces Europe": "AE", "PENNSYLVANIA": "PA", "OKLAHOMA": "OK", "KENTUCKY": "KY",
                     "RHODE ISLAND": "RI",
                     "DISTRICT OF COLUMBIA": "DC", "ARKANSAS": "AR", "MISSOURI": "MO", "TEXAS": "TX", "MAINE": "ME"}
    states = list(state_to_code.keys())    # 把字典中的key拿出來放到states列表中
    print(fuzz.ratio('Python Package', 'PythonPackage'))   #計算Python Package與PythonPackage的相似度
    print(process.extract('Mississippi', states))   # Mississippi與states中哪個最接近,并且列出相似比,不考慮大小寫
    print(process.extract('Mississipi', states, limit=1))  # limit=1代表只取最接近的一個
    print(process.extractOne('Mississipi', states))   # extractOne代表只取最接近的一個
    data.apply(find_state_code, axis=1)     #apply表示對每一行(axis=1)的數(shù)據(jù)做find_state_code的變換
 
    print('Before Correct State:\n', data['state'])    # 打印修改之前的state
    data['state'] = data.apply(correct_state, axis=1)  # 檢測每一行,并對其修改
    print('After Correct State:\n', data['state'])
    data.insert(5, 'State Code', np.nan)      # 插入State Code這一列,為這一列州名的縮寫
    data['State Code'] = data.apply(fill_state_code, axis=1)
    print(data)
 
    # group by
    print('==============group by================')
    print(data.groupby('State Code'))
    print('All Columns:\n')
    print(data.groupby('State Code').sum())  # 按州名縮寫劃分,并將同樣州名的數(shù)字相加
    print('Short Columns:\n')
    print(data[['State Code', 'Jan', 'Feb', 'Mar', 'total']].groupby('State Code').sum())
 
    # 寫入文件
    data.to_excel('sales_result.xls', sheet_name='Sheet1', index=False)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 在學(xué)習(xí)scrapy時發(fā)現(xiàn)pandas的方法其實相當(dāng)多,而且都很有用,所以貼一篇知乎上的文章過來原文鏈接本文翻譯自文...
    Demafic閱讀 501評論 0 3
  • 一、安裝與基本使用 進(jìn)入jupyter 但是,array仍然僅僅為一個集合,并不能做向量或矩陣的計算。因此需要使用...
    零點有成MagicWars閱讀 893評論 0 0
  • 本文翻譯自文章:Pandas Cheat Sheet - Python for Data Science,同時添加...
    oyan99閱讀 420評論 0 1
  • 作者:hooly微信公眾號:一口袋星光 關(guān)鍵縮寫和包導(dǎo)入 在這個速查手冊中,我們使用如下縮寫: df:任意的Pan...
    hooly閱讀 2,736評論 0 7
  • Pandas 目錄一、Pandas基礎(chǔ)二、Pandas三大數(shù)據(jù)結(jié)構(gòu)1.Series2.DataFrame3.Ind...
    Recalcitrant閱讀 2,189評論 0 11

友情鏈接更多精彩內(nèi)容