|
|
<!--
|
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
|
{
|
|
|
"original_hash": "116c5d361fbe812e59a73f37ce721d36",
|
|
|
"translation_date": "2025-08-27T08:33:54+00:00",
|
|
|
"source_file": "2-Working-With-Data/07-python/README.md",
|
|
|
"language_code": "mo"
|
|
|
}
|
|
|
-->
|
|
|
# 使用數據:Python 和 Pandas 庫
|
|
|
|
|
|
|  繪製的速記筆記](../../sketchnotes/07-WorkWithPython.png) |
|
|
|
| :-------------------------------------------------------------------------------------------------------: |
|
|
|
| 使用 Python - _由 [@nitya](https://twitter.com/nitya) 繪製的速記筆記_ |
|
|
|
|
|
|
[](https://youtu.be/dZjWOGbsN4Y)
|
|
|
|
|
|
雖然資料庫提供了非常高效的方式來存儲數據並使用查詢語言進行查詢,但最靈活的數據處理方式是編寫自己的程式來操作數據。在許多情況下,使用資料庫查詢可能更有效。然而,在某些需要更複雜數據處理的情況下,使用 SQL 可能不容易完成。
|
|
|
|
|
|
數據處理可以用任何程式語言編寫,但有些語言在處理數據方面更高效。數據科學家通常偏好以下幾種語言:
|
|
|
|
|
|
* **[Python](https://www.python.org/)**:一種通用程式語言,因其簡單性常被認為是初學者的最佳選擇。Python 擁有許多額外的庫,可以幫助解決許多實際問題,例如從 ZIP 壓縮檔中提取數據或將圖片轉換為灰度。除了數據科學,Python 也常用於網頁開發。
|
|
|
* **[R](https://www.r-project.org/)**:一個傳統工具箱,專為統計數據處理而設計。它擁有大量的庫(CRAN),使其成為數據處理的良好選擇。然而,R 不是通用程式語言,通常僅限於數據科學領域使用。
|
|
|
* **[Julia](https://julialang.org/)**:另一種專為數據科學設計的語言。它旨在提供比 Python 更好的性能,是科學實驗的理想工具。
|
|
|
|
|
|
在本課程中,我們將重點使用 Python 進行簡單的數據處理。我們假設您已對該語言有基本的熟悉。如果您想深入了解 Python,可以參考以下資源:
|
|
|
|
|
|
* [用海龜圖形和分形趣味學習 Python](https://github.com/shwars/pycourse) - 基於 GitHub 的 Python 程式快速入門課程
|
|
|
* [開始學習 Python 的第一步](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) - [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum) 上的學習路徑
|
|
|
|
|
|
數據可以有多種形式。在本課程中,我們將探討三種數據形式:**表格數據**、**文本**和**圖片**。
|
|
|
|
|
|
我們將專注於一些數據處理的例子,而不是全面介紹所有相關的庫。這樣可以讓您了解主要概念,並在需要時知道如何尋找解決方案。
|
|
|
|
|
|
> **最有用的建議**:當您需要對數據執行某些操作但不知道如何進行時,嘗試在網路上搜索。[Stackoverflow](https://stackoverflow.com/) 通常包含許多針對常見任務的 Python 代碼範例。
|
|
|
|
|
|
## [課前測驗](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
|
|
|
|
|
|
## 表格數據和數據框架
|
|
|
|
|
|
當我們討論關係型資料庫時,您已經接觸過表格數據。當您擁有大量數據並且它包含在許多不同的關聯表中時,使用 SQL 來處理它是非常合理的。然而,在許多情況下,我們擁有一個數據表,並需要對該數據進行一些**理解**或**洞察**,例如分佈情況、值之間的相關性等。在數據科學中,經常需要對原始數據進行一些轉換,然後進行可視化。這兩個步驟都可以輕鬆地使用 Python 完成。
|
|
|
|
|
|
以下是 Python 中處理表格數據最有用的兩個庫:
|
|
|
* **[Pandas](https://pandas.pydata.org/)**:允許您操作所謂的**數據框架**(Dataframes),類似於關係型表格。您可以擁有命名的列,並對行、列以及整個數據框架進行各種操作。
|
|
|
* **[Numpy](https://numpy.org/)**:是一個用於處理**張量**(Tensors),即多維**陣列**的庫。陣列的值具有相同的基礎類型,並且比數據框架更簡單,但它提供了更多的數學運算,並且開銷更少。
|
|
|
|
|
|
此外,還有幾個您應該了解的庫:
|
|
|
* **[Matplotlib](https://matplotlib.org/)**:用於數據可視化和繪製圖表的庫
|
|
|
* **[SciPy](https://www.scipy.org/)**:包含一些額外科學函數的庫。我們在討論概率和統計時已經接觸過該庫
|
|
|
|
|
|
以下是您通常在 Python 程式開頭用於導入這些庫的代碼:
|
|
|
```python
|
|
|
import numpy as np
|
|
|
import pandas as pd
|
|
|
import matplotlib.pyplot as plt
|
|
|
from scipy import ... # you need to specify exact sub-packages that you need
|
|
|
```
|
|
|
|
|
|
Pandas 的核心概念圍繞幾個基本概念。
|
|
|
|
|
|
### Series
|
|
|
|
|
|
**Series** 是一系列值,類似於列表或 numpy 陣列。主要區別在於 Series 還具有**索引**,當我們對 Series 進行操作(例如相加)時,索引會被考慮在內。索引可以像整數行號一樣簡單(當從列表或陣列創建 Series 時,默認使用此索引),也可以具有複雜結構,例如日期區間。
|
|
|
|
|
|
> **注意**:在附帶的筆記本 [`notebook.ipynb`](notebook.ipynb) 中有一些 Pandas 的入門代碼。我們在此僅列出部分示例,您可以查看完整的筆記本。
|
|
|
|
|
|
舉個例子:我們想分析冰淇淋店的銷售情況。讓我們生成一段時間內的銷售數據(每天售出的商品數量):
|
|
|
```python
|
|
|
start_date = "Jan 1, 2020"
|
|
|
end_date = "Mar 31, 2020"
|
|
|
idx = pd.date_range(start_date,end_date)
|
|
|
print(f"Length of index is {len(idx)}")
|
|
|
items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
|
|
|
items_sold.plot()
|
|
|
```
|
|
|

|
|
|
|
|
|
假設每週我們都會舉辦一次朋友聚會,並額外購買 10 盒冰淇淋。我們可以創建另一個以週為索引的 Series 來展示這一點:
|
|
|
```python
|
|
|
additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
|
|
|
```
|
|
|
當我們將兩個 Series 相加時,我們得到總數:
|
|
|
```python
|
|
|
total_items = items_sold.add(additional_items,fill_value=0)
|
|
|
total_items.plot()
|
|
|
```
|
|
|

|
|
|
|
|
|
> **注意**:我們並未使用簡單的語法 `total_items+additional_items`。如果使用該語法,結果 Series 中會有許多 `NaN`(*非數值*)值。這是因為在 `additional_items` Series 的某些索引點上存在缺失值,而將 `NaN` 與任何值相加都會得到 `NaN`。因此,我們需要在相加時指定 `fill_value` 參數。
|
|
|
|
|
|
對於時間序列,我們還可以使用不同的時間間隔進行**重採樣**。例如,假設我們想計算每月的平均銷售量,可以使用以下代碼:
|
|
|
```python
|
|
|
monthly = total_items.resample("1M").mean()
|
|
|
ax = monthly.plot(kind='bar')
|
|
|
```
|
|
|

|
|
|
|
|
|
### DataFrame
|
|
|
|
|
|
DataFrame 本質上是具有相同索引的多個 Series 的集合。我們可以將幾個 Series 組合成一個 DataFrame:
|
|
|
```python
|
|
|
a = pd.Series(range(1,10))
|
|
|
b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
|
|
|
df = pd.DataFrame([a,b])
|
|
|
```
|
|
|
這將創建如下的水平表格:
|
|
|
| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
|
|
|
| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
|
|
|
| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
|
|
|
| 1 | I | like | to | use | Python | and | Pandas | very | much |
|
|
|
|
|
|
我們還可以使用 Series 作為列,並使用字典指定列名:
|
|
|
```python
|
|
|
df = pd.DataFrame({ 'A' : a, 'B' : b })
|
|
|
```
|
|
|
這將生成如下表格:
|
|
|
|
|
|
| | A | B |
|
|
|
| --- | --- | ------ |
|
|
|
| 0 | 1 | I |
|
|
|
| 1 | 2 | like |
|
|
|
| 2 | 3 | to |
|
|
|
| 3 | 4 | use |
|
|
|
| 4 | 5 | Python |
|
|
|
| 5 | 6 | and |
|
|
|
| 6 | 7 | Pandas |
|
|
|
| 7 | 8 | very |
|
|
|
| 8 | 9 | much |
|
|
|
|
|
|
**注意**:我們也可以通過轉置前面的表格來獲得此表格佈局,例如:
|
|
|
```python
|
|
|
df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
|
|
|
```
|
|
|
其中 `.T` 表示轉置 DataFrame 的操作,即交換行和列,而 `rename` 操作允許我們重命名列以匹配前面的示例。
|
|
|
|
|
|
以下是一些我們可以對 DataFrame 執行的重要操作:
|
|
|
|
|
|
**列選擇**。我們可以通過 `df['A']` 選擇單個列,此操作返回一個 Series。我們也可以通過 `df[['B','A']]` 選擇列的子集到另一個 DataFrame,此操作返回另一個 DataFrame。
|
|
|
|
|
|
**篩選**符合條件的行。例如,要僅保留列 `A` 大於 5 的行,我們可以寫 `df[df['A']>5]`。
|
|
|
|
|
|
> **注意**:篩選的工作方式如下。表達式 `df['A']<5` 返回一個布林 Series,指示原始 Series `df['A']` 中每個元素的表達式是否為 `True` 或 `False`。當布林 Series 用作索引時,它返回 DataFrame 中的行子集。因此,不能使用任意的 Python 布林表達式,例如,寫 `df[df['A']>5 and df['A']<7]` 是錯誤的。相反,您應使用布林 Series 的特殊 `&` 操作,寫 `df[(df['A']>5) & (df['A']<7)]`(*括號在此處很重要*)。
|
|
|
|
|
|
**創建新的可計算列**。我們可以通過直觀的表達式輕鬆為 DataFrame 創建新的可計算列:
|
|
|
```python
|
|
|
df['DivA'] = df['A']-df['A'].mean()
|
|
|
```
|
|
|
此示例計算列 A 與其平均值的偏差。實際上,我們是在計算一個 Series,然後將該 Series 分配給左側,創建另一列。因此,我們不能使用與 Series 不兼容的操作,例如,以下代碼是錯誤的:
|
|
|
```python
|
|
|
# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
|
|
|
df['LenB'] = len(df['B']) # <- Wrong result
|
|
|
```
|
|
|
後一個示例雖然語法正確,但結果錯誤,因為它將 Series `B` 的長度分配給列中的所有值,而不是分配給每個元素的長度。
|
|
|
|
|
|
如果需要計算此類複雜表達式,可以使用 `apply` 函數。上述示例可以寫成:
|
|
|
```python
|
|
|
df['LenB'] = df['B'].apply(lambda x : len(x))
|
|
|
# or
|
|
|
df['LenB'] = df['B'].apply(len)
|
|
|
```
|
|
|
|
|
|
執行上述操作後,我們將得到以下 DataFrame:
|
|
|
|
|
|
| | A | B | DivA | LenB |
|
|
|
| --- | --- | ------ | ---- | ---- |
|
|
|
| 0 | 1 | I | -4.0 | 1 |
|
|
|
| 1 | 2 | like | -3.0 | 4 |
|
|
|
| 2 | 3 | to | -2.0 | 2 |
|
|
|
| 3 | 4 | use | -1.0 | 3 |
|
|
|
| 4 | 5 | Python | 0.0 | 6 |
|
|
|
| 5 | 6 | and | 1.0 | 3 |
|
|
|
| 6 | 7 | Pandas | 2.0 | 6 |
|
|
|
| 7 | 8 | very | 3.0 | 4 |
|
|
|
| 8 | 9 | much | 4.0 | 4 |
|
|
|
|
|
|
**基於行號選擇行**可以使用 `iloc` 結構。例如,要選擇 DataFrame 的前 5 行:
|
|
|
```python
|
|
|
df.iloc[:5]
|
|
|
```
|
|
|
|
|
|
**分組**通常用於獲得類似於 Excel 中*樞紐表*的結果。假設我們想計算列 `A` 的平均值,按 `LenB` 的不同值分組。我們可以按 `LenB` 分組 DataFrame,然後調用 `mean`:
|
|
|
```python
|
|
|
df.groupby(by='LenB').mean()
|
|
|
```
|
|
|
如果需要計算分組的平均值和元素數量,可以使用更複雜的 `aggregate` 函數:
|
|
|
```python
|
|
|
df.groupby(by='LenB') \
|
|
|
.aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
|
|
|
.rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
|
|
|
```
|
|
|
這將生成以下表格:
|
|
|
|
|
|
| LenB | Count | Mean |
|
|
|
| ---- | ----- | -------- |
|
|
|
| 1 | 1 | 1.000000 |
|
|
|
| 2 | 1 | 3.000000 |
|
|
|
| 3 | 2 | 5.000000 |
|
|
|
| 4 | 3 | 6.333333 |
|
|
|
| 6 | 2 | 6.000000 |
|
|
|
|
|
|
### 獲取數據
|
|
|
我們已經看到如何輕鬆地從 Python 物件構建 Series 和 DataFrame。然而,數據通常以文字檔案或 Excel 表格的形式出現。幸運的是,Pandas 提供了一種簡單的方法來從磁碟載入數據。例如,讀取 CSV 檔案就像這樣簡單:
|
|
|
```python
|
|
|
df = pd.read_csv('file.csv')
|
|
|
```
|
|
|
我們將在「挑戰」部分看到更多載入數據的範例,包括從外部網站獲取數據。
|
|
|
|
|
|
### 列印與繪圖
|
|
|
|
|
|
資料科學家經常需要探索數據,因此能夠視覺化數據非常重要。當 DataFrame 很大時,我們通常只想確保我們的操作正確無誤,這可以透過列印出前幾行來完成。這可以使用 `df.head()` 方法來實現。如果你在 Jupyter Notebook 中執行,它會以漂亮的表格形式顯示 DataFrame。
|
|
|
|
|
|
我們也已經看過使用 `plot` 函數來視覺化某些欄位的用法。雖然 `plot` 對於許多任務非常有用,並且透過 `kind=` 參數支持多種圖表類型,但你也可以使用原生的 `matplotlib` 函式庫來繪製更複雜的圖表。我們會在單獨的課程中詳細介紹數據視覺化。
|
|
|
|
|
|
這個概述涵蓋了 Pandas 的一些重要概念,但這個函式庫非常豐富,幾乎沒有你無法完成的事情!現在,讓我們運用這些知識來解決具體的問題。
|
|
|
|
|
|
## 🚀 挑戰 1:分析 COVID 傳播
|
|
|
|
|
|
我們將專注於的第一個問題是模擬 COVID-19 的流行病傳播。為此,我們將使用由 [約翰霍普金斯大學](https://jhu.edu/) 的 [系統科學與工程中心](https://systems.jhu.edu/) (CSSE) 提供的不同國家感染人數數據。數據集可在 [這個 GitHub 儲存庫](https://github.com/CSSEGISandData/COVID-19) 中找到。
|
|
|
|
|
|
由於我們想展示如何處理數據,我們邀請你打開 [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) 並從頭到尾閱讀。你也可以執行程式碼單元,並完成我們在最後為你設置的一些挑戰。
|
|
|
|
|
|

|
|
|
|
|
|
> 如果你不知道如何在 Jupyter Notebook 中執行程式碼,請參考 [這篇文章](https://soshnikov.com/education/how-to-execute-notebooks-from-github/)。
|
|
|
|
|
|
## 處理非結構化數據
|
|
|
|
|
|
雖然數據通常以表格形式出現,但在某些情況下,我們需要處理非結構化數據,例如文字或圖片。在這種情況下,為了應用我們之前看到的數據處理技術,我們需要以某種方式**提取**結構化數據。以下是一些範例:
|
|
|
|
|
|
* 從文字中提取關鍵字,並查看這些關鍵字出現的頻率
|
|
|
* 使用神經網路提取圖片中物件的相關資訊
|
|
|
* 獲取視頻鏡頭中人物的情感資訊
|
|
|
|
|
|
## 🚀 挑戰 2:分析 COVID 相關論文
|
|
|
|
|
|
在這個挑戰中,我們將繼續探討 COVID 疫情的主題,並專注於處理相關的科學論文。有一個 [CORD-19 數據集](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge),其中包含超過 7000 篇(撰寫本文時)關於 COVID 的論文,並附有元數據和摘要(其中約一半還提供全文)。
|
|
|
|
|
|
使用 [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) 認知服務分析該數據集的完整範例已在 [這篇部落格文章](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) 中描述。我們將討論此分析的簡化版本。
|
|
|
|
|
|
> **注意**:我們並未在此儲存庫中提供數據集的副本。你可能需要先從 [Kaggle 的這個數據集](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) 下載 [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) 檔案(可能需要註冊)。你也可以從 [這裡](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html) 無需註冊下載數據集,但它將包含所有全文以及元數據檔案。
|
|
|
|
|
|
打開 [`notebook-papers.ipynb`](notebook-papers.ipynb) 並從頭到尾閱讀。你也可以執行程式碼單元,並完成我們在最後為你設置的一些挑戰。
|
|
|
|
|
|

|
|
|
|
|
|
## 處理影像數據
|
|
|
|
|
|
近年來,已經開發出非常強大的 AI 模型,能夠理解影像內容。有許多任務可以使用預訓練的神經網路或雲端服務來解決。一些範例包括:
|
|
|
|
|
|
* **影像分類**,可以幫助你將影像分類到預定義的類別中。你可以使用像 [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) 這樣的服務輕鬆訓練自己的影像分類器。
|
|
|
* **物件檢測**,用於檢測影像中的不同物件。像 [Computer Vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) 這樣的服務可以檢測許多常見物件,你也可以訓練 [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) 模型來檢測一些特定的目標物件。
|
|
|
* **人臉檢測**,包括年齡、性別和情感檢測。這可以透過 [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) 完成。
|
|
|
|
|
|
所有這些雲端服務都可以透過 [Python SDK](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum) 調用,因此可以輕鬆整合到你的數據探索工作流程中。
|
|
|
|
|
|
以下是一些探索影像數據來源的範例:
|
|
|
* 在部落格文章 [如何在無需編碼的情況下學習資料科學](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) 中,我們探索 Instagram 照片,試圖了解什麼樣的照片能獲得更多的讚。我們首先使用 [Computer Vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) 提取盡可能多的圖片資訊,然後使用 [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) 建立可解釋的模型。
|
|
|
* 在 [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) 中,我們使用 [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) 提取活動照片中人物的情感,試圖了解什麼讓人們感到快樂。
|
|
|
|
|
|
## 結論
|
|
|
|
|
|
無論你擁有的是結構化還是非結構化數據,使用 Python 都可以完成與數據處理和理解相關的所有步驟。這可能是最靈活的數據處理方式,這也是為什麼大多數資料科學家將 Python 作為主要工具的原因。如果你對資料科學之旅充滿熱情,深入學習 Python 是一個明智的選擇!
|
|
|
|
|
|
## [課後測驗](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
|
|
|
|
|
|
## 複習與自學
|
|
|
|
|
|
**書籍**
|
|
|
* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
|
|
|
|
|
|
**線上資源**
|
|
|
* 官方 [10 分鐘學 Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html) 教程
|
|
|
* [Pandas 視覺化文檔](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
|
|
|
|
|
|
**學習 Python**
|
|
|
* [用 Turtle Graphics 和分形圖形趣味學習 Python](https://github.com/shwars/pycourse)
|
|
|
* [從零開始學 Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) 的學習路徑,位於 [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
|
|
|
|
|
|
## 作業
|
|
|
|
|
|
[對上述挑戰進行更詳細的數據研究](assignment.md)
|
|
|
|
|
|
## 致謝
|
|
|
|
|
|
這節課由 [Dmitry Soshnikov](http://soshnikov.com) 用 ♥️ 編寫。
|
|
|
|
|
|
---
|
|
|
|
|
|
**免責聲明**:
|
|
|
本文件已使用 AI 翻譯服務 [Co-op Translator](https://github.com/Azure/co-op-translator) 進行翻譯。我們致力於提供準確的翻譯,但請注意,自動翻譯可能包含錯誤或不準確之處。應以原始語言的文件作為權威來源。對於關鍵資訊,建議尋求專業人工翻譯。我們對因使用此翻譯而引起的任何誤解或錯誤解讀概不負責。 |