24 KiB
Construir um modelo de regressão usando Scikit-learn: quatro abordagens de regressão
Infográfico por Dasani Madipalli
Questionário pré-aula
Esta lição está disponível em R!
Introdução
Até agora, exploraste o que é regressão com dados de exemplo retirados do conjunto de dados de preços de abóboras que utilizaremos ao longo desta lição. Também já os visualizaste utilizando o Matplotlib.
Agora estás pronto para mergulhar mais fundo na regressão para Machine Learning. Embora a visualização permita compreender os dados, o verdadeiro poder do Machine Learning vem do treinamento de modelos. Os modelos são treinados com dados históricos para capturar automaticamente as dependências dos dados, permitindo prever resultados para novos dados que o modelo ainda não viu.
Nesta lição, aprenderás mais sobre dois tipos de regressão: regressão linear básica e regressão polinomial, juntamente com algumas das matemáticas subjacentes a estas técnicas. Esses modelos permitirão prever os preços das abóboras dependendo de diferentes dados de entrada.
🎥 Clica na imagem acima para uma breve visão geral sobre regressão linear.
Ao longo deste currículo, assumimos um conhecimento mínimo de matemática e procuramos torná-lo acessível para estudantes de outras áreas. Por isso, presta atenção às notas, 🧮 chamadas, diagramas e outras ferramentas de aprendizagem para ajudar na compreensão.
Pré-requisitos
Deves estar familiarizado, neste momento, com a estrutura dos dados de abóboras que estamos a analisar. Podes encontrá-los pré-carregados e pré-limpos no ficheiro notebook.ipynb desta lição. No ficheiro, o preço das abóboras é exibido por alqueire num novo data frame. Certifica-te de que consegues executar estes notebooks em kernels no Visual Studio Code.
Preparação
Como lembrete, estás a carregar estes dados para fazer perguntas sobre eles.
- Qual é a melhor altura para comprar abóboras?
- Que preço posso esperar por uma caixa de abóboras miniatura?
- Devo comprá-las em cestos de meio alqueire ou em caixas de 1 1/9 de alqueire? Vamos continuar a explorar estes dados.
Na lição anterior, criaste um data frame com Pandas e preencheste-o com parte do conjunto de dados original, padronizando os preços por alqueire. No entanto, ao fazer isso, só conseguiste reunir cerca de 400 pontos de dados e apenas para os meses de outono.
Dá uma olhada nos dados que pré-carregámos no notebook que acompanha esta lição. Os dados estão pré-carregados e um gráfico de dispersão inicial é traçado para mostrar os dados por mês. Talvez possamos obter mais detalhes sobre a natureza dos dados ao limpá-los mais.
Uma linha de regressão linear
Como aprendeste na Lição 1, o objetivo de um exercício de regressão linear é ser capaz de traçar uma linha para:
- Mostrar relações entre variáveis. Mostrar a relação entre variáveis.
- Fazer previsões. Fazer previsões precisas sobre onde um novo ponto de dados cairia em relação a essa linha.
É típico da Regressão dos Mínimos Quadrados traçar este tipo de linha. O termo 'mínimos quadrados' significa que todos os pontos de dados ao redor da linha de regressão são elevados ao quadrado e depois somados. Idealmente, essa soma final é o menor possível, porque queremos um número baixo de erros, ou mínimos quadrados
.
Fazemos isso porque queremos modelar uma linha que tenha a menor distância cumulativa de todos os nossos pontos de dados. Também elevamos os termos ao quadrado antes de somá-los, pois estamos preocupados com a magnitude e não com a direção.
🧮 Mostra-me a matemática
Esta linha, chamada de linha de melhor ajuste, pode ser expressa por uma equação:
Y = a + bX
X
é a 'variável explicativa'.Y
é a 'variável dependente'. A inclinação da linha éb
ea
é o intercepto em Y, que se refere ao valor deY
quandoX = 0
.Primeiro, calcula-se a inclinação
b
. Infográfico por Jen LooperEm outras palavras, e referindo-se à pergunta original sobre os dados das abóboras: "prever o preço de uma abóbora por alqueire por mês",
X
referir-se-ia ao preço eY
ao mês de venda.Calcula o valor de Y. Se estás a pagar cerca de $4, deve ser abril! Infográfico por Jen Looper
A matemática que calcula a linha deve demonstrar a inclinação da linha, que também depende do intercepto, ou onde
Y
está situado quandoX = 0
.Podes observar o método de cálculo desses valores no site Math is Fun. Também visita este calculador de mínimos quadrados para ver como os valores dos números impactam a linha.
Correlação
Outro termo a compreender é o Coeficiente de Correlação entre as variáveis X e Y fornecidas. Usando um gráfico de dispersão, podes visualizar rapidamente este coeficiente. Um gráfico com pontos de dados dispersos numa linha ordenada tem alta correlação, mas um gráfico com pontos de dados espalhados por todo o lado entre X e Y tem baixa correlação.
Um bom modelo de regressão linear será aquele que tem um Coeficiente de Correlação alto (mais próximo de 1 do que de 0) usando o método de Regressão dos Mínimos Quadrados com uma linha de regressão.
✅ Executa o notebook que acompanha esta lição e observa o gráfico de dispersão de Mês para Preço. Os dados que associam Mês ao Preço das vendas de abóboras parecem ter alta ou baixa correlação, de acordo com a tua interpretação visual do gráfico de dispersão? Isso muda se usares uma medida mais detalhada em vez de Mês
, por exemplo, dia do ano (ou seja, número de dias desde o início do ano)?
No código abaixo, assumiremos que limpámos os dados e obtivemos um data frame chamado new_pumpkins
, semelhante ao seguinte:
ID | Mês | DiaDoAno | Variedade | Cidade | Embalagem | Preço Baixo | Preço Alto | Preço |
---|---|---|---|---|---|---|---|---|
70 | 9 | 267 | TIPO TORTA | BALTIMORE | caixas de 1 1/9 alqueires | 15.0 | 15.0 | 13.636364 |
71 | 9 | 267 | TIPO TORTA | BALTIMORE | caixas de 1 1/9 alqueires | 18.0 | 18.0 | 16.363636 |
72 | 10 | 274 | TIPO TORTA | BALTIMORE | caixas de 1 1/9 alqueires | 18.0 | 18.0 | 16.363636 |
73 | 10 | 274 | TIPO TORTA | BALTIMORE | caixas de 1 1/9 alqueires | 17.0 | 17.0 | 15.454545 |
74 | 10 | 281 | TIPO TORTA | BALTIMORE | caixas de 1 1/9 alqueires | 15.0 | 15.0 | 13.636364 |
O código para limpar os dados está disponível em
notebook.ipynb
. Realizámos os mesmos passos de limpeza da lição anterior e calculámos a colunaDiaDoAno
usando a seguinte expressão:
day_of_year = pd.to_datetime(pumpkins['Date']).apply(lambda dt: (dt-datetime(dt.year,1,1)).days)
Agora que tens uma compreensão da matemática por trás da regressão linear, vamos criar um modelo de Regressão para ver se conseguimos prever qual embalagem de abóboras terá os melhores preços. Alguém que compra abóboras para um campo de abóboras de feriado pode querer esta informação para otimizar as suas compras de embalagens de abóboras para o campo.
Procurando por Correlação
🎥 Clica na imagem acima para uma breve visão geral sobre correlação.
Na lição anterior, provavelmente viste que o preço médio para diferentes meses parece assim:

Isto sugere que deve haver alguma correlação, e podemos tentar treinar um modelo de regressão linear para prever a relação entre Mês
e Preço
, ou entre DiaDoAno
e Preço
. Aqui está o gráfico de dispersão que mostra a última relação:

Vamos verificar se há correlação usando a função corr
:
print(new_pumpkins['Month'].corr(new_pumpkins['Price']))
print(new_pumpkins['DayOfYear'].corr(new_pumpkins['Price']))
Parece que a correlação é bastante pequena, -0.15 por Mês
e -0.17 por DiaDoAno
, mas pode haver outra relação importante. Parece que há diferentes agrupamentos de preços correspondentes a diferentes variedades de abóboras. Para confirmar esta hipótese, vamos traçar cada categoria de abóbora usando uma cor diferente. Passando um parâmetro ax
para a função de plotagem scatter
, podemos traçar todos os pontos no mesmo gráfico:
ax=None
colors = ['red','blue','green','yellow']
for i,var in enumerate(new_pumpkins['Variety'].unique()):
df = new_pumpkins[new_pumpkins['Variety']==var]
ax = df.plot.scatter('DayOfYear','Price',ax=ax,c=colors[i],label=var)

A nossa investigação sugere que a variedade tem mais efeito no preço geral do que a data de venda. Podemos ver isso com um gráfico de barras:
new_pumpkins.groupby('Variety')['Price'].mean().plot(kind='bar')

Vamos focar-nos, por enquanto, apenas numa variedade de abóbora, o 'tipo torta', e ver qual o efeito da data no preço:
pie_pumpkins = new_pumpkins[new_pumpkins['Variety']=='PIE TYPE']
pie_pumpkins.plot.scatter('DayOfYear','Price')

Se agora calcularmos a correlação entre Preço
e DiaDoAno
usando a função corr
, obteremos algo como -0.27
- o que significa que treinar um modelo preditivo faz sentido.
Antes de treinar um modelo de regressão linear, é importante garantir que os nossos dados estão limpos. A regressão linear não funciona bem com valores ausentes, por isso faz sentido eliminar todas as células vazias:
pie_pumpkins.dropna(inplace=True)
pie_pumpkins.info()
Outra abordagem seria preencher esses valores vazios com valores médios da coluna correspondente.
Regressão Linear Simples
🎥 Clica na imagem acima para uma breve visão geral sobre regressão linear e polinomial.
Para treinar o nosso modelo de Regressão Linear, utilizaremos a biblioteca Scikit-learn.
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import train_test_split
Começamos separando os valores de entrada (características) e a saída esperada (rótulo) em arrays numpy separados:
X = pie_pumpkins['DayOfYear'].to_numpy().reshape(-1,1)
y = pie_pumpkins['Price']
Nota que tivemos de realizar
reshape
nos dados de entrada para que o pacote de Regressão Linear os compreendesse corretamente. A Regressão Linear espera um array 2D como entrada, onde cada linha do array corresponde a um vetor de características de entrada. No nosso caso, como temos apenas uma entrada, precisamos de um array com forma N×1, onde N é o tamanho do conjunto de dados.
Depois, precisamos dividir os dados em conjuntos de treino e teste, para que possamos validar o nosso modelo após o treino:
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
Finalmente, treinar o modelo de Regressão Linear propriamente dito leva apenas duas linhas de código. Definimos o objeto LinearRegression
e ajustamo-lo aos nossos dados usando o método fit
:
lin_reg = LinearRegression()
lin_reg.fit(X_train,y_train)
O objeto LinearRegression
após o ajuste (fit
) contém todos os coeficientes da regressão, que podem ser acessados usando a propriedade .coef_
. No nosso caso, há apenas um coeficiente, que deve ser em torno de -0.017
. Isso significa que os preços parecem cair um pouco com o tempo, mas não muito, cerca de 2 cêntimos por dia. Também podemos acessar o ponto de interseção da regressão com o eixo Y usando lin_reg.intercept_
- será em torno de 21
no nosso caso, indicando o preço no início do ano.
Para ver quão preciso é o nosso modelo, podemos prever preços num conjunto de dados de teste e depois medir quão próximas estão as nossas previsões dos valores esperados. Isso pode ser feito usando a métrica de erro quadrático médio (MSE), que é a média de todas as diferenças ao quadrado entre o valor esperado e o previsto.
pred = lin_reg.predict(X_test)
mse = np.sqrt(mean_squared_error(y_test,pred))
print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)')
O nosso erro parece estar em torno de 2 pontos, o que equivale a ~17%. Não é muito bom. Outro indicador da qualidade do modelo é o coeficiente de determinação, que pode ser obtido assim:
score = lin_reg.score(X_train,y_train)
print('Model determination: ', score)
Se o valor for 0, significa que o modelo não considera os dados de entrada e age como o pior preditor linear, que é simplesmente o valor médio do resultado. O valor 1 significa que conseguimos prever perfeitamente todos os resultados esperados. No nosso caso, o coeficiente é cerca de 0,06, o que é bastante baixo.
Também podemos traçar os dados de teste juntamente com a linha de regressão para visualizar melhor como a regressão funciona no nosso caso:
plt.scatter(X_test,y_test)
plt.plot(X_test,pred)

Regressão Polinomial
Outro tipo de Regressão Linear é a Regressão Polinomial. Embora às vezes exista uma relação linear entre variáveis - quanto maior o volume da abóbora, maior o preço - em outras situações essas relações não podem ser representadas como um plano ou linha reta.
✅ Aqui estão alguns exemplos adicionais de dados que poderiam usar Regressão Polinomial.
Observe novamente a relação entre Data e Preço. Este gráfico de dispersão parece que deveria ser analisado necessariamente por uma linha reta? Os preços não podem flutuar? Neste caso, pode-se tentar a regressão polinomial.
✅ Polinómios são expressões matemáticas que podem consistir em uma ou mais variáveis e coeficientes.
A regressão polinomial cria uma linha curva para se ajustar melhor a dados não lineares. No nosso caso, se incluirmos uma variável DayOfYear
ao quadrado nos dados de entrada, deveremos ser capazes de ajustar os dados com uma curva parabólica, que terá um mínimo em determinado ponto do ano.
O Scikit-learn inclui uma API de pipeline útil para combinar diferentes etapas de processamento de dados. Um pipeline é uma cadeia de estimadores. No nosso caso, criaremos um pipeline que primeiro adiciona características polinomiais ao modelo e, em seguida, treina a regressão:
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import make_pipeline
pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression())
pipeline.fit(X_train,y_train)
Usar PolynomialFeatures(2)
significa que incluiremos todos os polinómios de segundo grau dos dados de entrada. No nosso caso, isso significará apenas DayOfYear
2, mas, dado duas variáveis de entrada X e Y, isso adicionará X2, XY e Y2. Também podemos usar polinómios de grau superior, se quisermos.
Os pipelines podem ser usados da mesma forma que o objeto original LinearRegression
, ou seja, podemos usar fit
no pipeline e, em seguida, usar predict
para obter os resultados da previsão. Aqui está o gráfico mostrando os dados de teste e a curva de aproximação:

Usando a Regressão Polinomial, conseguimos um MSE ligeiramente mais baixo e um coeficiente de determinação mais alto, mas não significativamente. Precisamos levar em conta outras características!
Pode-se observar que os preços mínimos das abóboras ocorrem por volta do Halloween. Como explicaria isso?
🎃 Parabéns, acabou de criar um modelo que pode ajudar a prever o preço das abóboras para tartes. Provavelmente poderia repetir o mesmo procedimento para todos os tipos de abóbora, mas isso seria trabalhoso. Vamos agora aprender como levar em conta a variedade de abóbora no nosso modelo!
Características Categóricas
No mundo ideal, queremos ser capazes de prever preços para diferentes variedades de abóbora usando o mesmo modelo. No entanto, a coluna Variety
é um pouco diferente de colunas como Month
, porque contém valores não numéricos. Essas colunas são chamadas de categóricas.
🎥 Clique na imagem acima para um breve vídeo sobre o uso de características categóricas.
Aqui pode ver como o preço médio depende da variedade:

Para levar a variedade em conta, primeiro precisamos convertê-la para uma forma numérica, ou codificá-la. Existem várias formas de fazer isso:
- A codificação numérica simples criará uma tabela com as diferentes variedades e, em seguida, substituirá o nome da variedade por um índice nessa tabela. Esta não é a melhor ideia para regressão linear, porque a regressão linear considera o valor numérico do índice e adiciona-o ao resultado, multiplicando por algum coeficiente. No nosso caso, a relação entre o número do índice e o preço é claramente não linear, mesmo que garantamos que os índices estejam ordenados de uma forma específica.
- A codificação one-hot substituirá a coluna
Variety
por 4 colunas diferentes, uma para cada variedade. Cada coluna conterá1
se a linha correspondente for de uma determinada variedade, e0
caso contrário. Isso significa que haverá quatro coeficientes na regressão linear, um para cada variedade de abóbora, responsáveis pelo "preço inicial" (ou melhor, "preço adicional") para essa variedade específica.
O código abaixo mostra como podemos codificar uma variedade usando one-hot encoding:
pd.get_dummies(new_pumpkins['Variety'])
ID | FAIRYTALE | MINIATURE | MIXED HEIRLOOM VARIETIES | PIE TYPE |
---|---|---|---|---|
70 | 0 | 0 | 0 | 1 |
71 | 0 | 0 | 0 | 1 |
... | ... | ... | ... | ... |
1738 | 0 | 1 | 0 | 0 |
1739 | 0 | 1 | 0 | 0 |
1740 | 0 | 1 | 0 | 0 |
1741 | 0 | 1 | 0 | 0 |
1742 | 0 | 1 | 0 | 0 |
Para treinar a regressão linear usando a variedade codificada como one-hot nos dados de entrada, só precisamos inicializar os dados X
e y
corretamente:
X = pd.get_dummies(new_pumpkins['Variety'])
y = new_pumpkins['Price']
O restante do código é o mesmo que usamos acima para treinar a Regressão Linear. Se experimentar, verá que o erro quadrático médio é aproximadamente o mesmo, mas obtemos um coeficiente de determinação muito mais alto (~77%). Para obter previsões ainda mais precisas, podemos levar em conta mais características categóricas, bem como características numéricas, como Month
ou DayOfYear
. Para obter um grande conjunto de características, podemos usar join
:
X = pd.get_dummies(new_pumpkins['Variety']) \
.join(new_pumpkins['Month']) \
.join(pd.get_dummies(new_pumpkins['City'])) \
.join(pd.get_dummies(new_pumpkins['Package']))
y = new_pumpkins['Price']
Aqui também levamos em conta City
e o tipo de Package
, o que nos dá um MSE de 2,84 (10%) e um coeficiente de determinação de 0,94!
Resumindo tudo
Para criar o melhor modelo, podemos usar dados combinados (categóricos codificados como one-hot + numéricos) do exemplo acima juntamente com a Regressão Polinomial. Aqui está o código completo para sua conveniência:
# set up training data
X = pd.get_dummies(new_pumpkins['Variety']) \
.join(new_pumpkins['Month']) \
.join(pd.get_dummies(new_pumpkins['City'])) \
.join(pd.get_dummies(new_pumpkins['Package']))
y = new_pumpkins['Price']
# make train-test split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# setup and train the pipeline
pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression())
pipeline.fit(X_train,y_train)
# predict results for test data
pred = pipeline.predict(X_test)
# calculate MSE and determination
mse = np.sqrt(mean_squared_error(y_test,pred))
print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)')
score = pipeline.score(X_train,y_train)
print('Model determination: ', score)
Isso deve nos dar o melhor coeficiente de determinação de quase 97% e MSE=2,23 (~8% de erro de previsão).
Modelo | MSE | Determinação |
---|---|---|
DayOfYear Linear |
2,77 (17,2%) | 0,07 |
DayOfYear Polinomial |
2,73 (17,0%) | 0,08 |
Variety Linear |
5,24 (19,7%) | 0,77 |
Todas as características Linear | 2,84 (10,5%) | 0,94 |
Todas as características Polinomial | 2,23 (8,25%) | 0,97 |
🏆 Muito bem! Criou quatro modelos de Regressão numa única lição e melhorou a qualidade do modelo para 97%. Na seção final sobre Regressão, aprenderá sobre Regressão Logística para determinar categorias.
🚀Desafio
Teste várias variáveis diferentes neste notebook para ver como a correlação corresponde à precisão do modelo.
Questionário pós-aula
Revisão e Autoestudo
Nesta lição aprendemos sobre Regressão Linear. Existem outros tipos importantes de Regressão. Leia sobre as técnicas Stepwise, Ridge, Lasso e Elasticnet. Um bom curso para aprender mais é o curso de Aprendizagem Estatística de Stanford.
Tarefa
Aviso Legal:
Este documento foi traduzido utilizando o serviço de tradução por IA Co-op Translator. Embora nos esforcemos para garantir a precisão, é importante ter em conta que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.