아마도 머신러닝을 공부하기 시작하는 사람들에게 가장 큰 어려움 중 하나는 작업하고, 데이터를 처리하고, 작은 추론을 하고, 모델을 구성하는 것입니다.
이 기사에서는 다음을 통해 데이터세트를 분석하여 머신러닝 모델을 더 효과적으로 구축하는 방법을 예시로 설명합니다.
- 머신러닝이 무엇인지 간략하게 설명
- 학습의 종류와 차이점
- 데이터세트에서 중요한 정보를 이해하고 추출합니다
- 데이터세트의 데이터 처리
- 모델 알고리즘의 차이점
- 선형회귀모델 구축
하지만 맥락을 이해할 수 있도록 처음부터 시작해 보겠습니다. 머신러닝(ML)이란 무엇인가요?
ML은 인공지능(AI), 신경망, 로봇공학 등의 다양한 분야 중 하나입니다. 머신러닝의 유형은 데이터가 어떻게 구성되어 있는지에 따라 달라지므로 여러 유형으로 나누어 모델을 만들 수 있습니다. ML 모델은 입력 데이터를 처리하고 결과를 예측하거나 분류하는 방법을 학습하는 알고리즘을 사용하여 생성됩니다.
데이터세트의 중요성
ML 모델을 만들려면 데이터세트가 필요합니다. 데이터세트에는 입력 기능이 있어야 합니다. 이는 기본적으로 학습 유형에 따라 대상 열을 제외한 전체 데이터세트입니다. 지도 학습인 경우 데이터세트에는 다음이 포함되어야 합니다. 타겟, 라벨 또는 정답. 이 정보는 모델 교육 및 테스트에 사용됩니다.
일부 학습 유형과 그에 대한 데이터 세트 구조:
- 지도 학습: 여기서 모델은 올바른 출력이 이미 제공된 일련의 레이블이 지정된 데이터를 통해 학습하므로 모델의 목표는 새 데이터에 대해 올바르게 예측할 수 있도록 입력과 출력을 연결하는 방법을 학습하는 것입니다.
- 비지도 학습: 모델 학습은 레이블이 지정되지 않은 데이터로 수행되며 입력과 관련된 올바른 출력이 없으므로 모델의 목표는 데이터의 패턴과 그룹화를 식별하는 것입니다.
- 강화 학습: 여기서 모델은 환경과의 상호 작용을 통해 학습합니다. 그는 환경에서 행동을 취하고 올바른 행동에 대한 보상을 받거나 잘못된 행동에 대한 처벌을 받게 되며, 올바른 행동을 수행하게 된 행동을 극대화하여 장기적인 보상을 완전히 극대화하는 것을 목표로 합니다.
따라서 데이터세트는 기본적으로 기계가 생성한 모델의 전체 행동과 학습 과정을 정의합니다.
예제를 계속 진행하려면 특정 대상에 대한 생명 보험의 월간 가치를 정의하는 것이 목표인 감독 학습 모델의 예시인 라벨이 있는 데이터세트를 사용하겠습니다.
먼저 데이터 세트를 로드하고 첫 번째 줄을 살펴보겠습니다.
import pandas as pd data = pd.read_csv('../dataset_seguro_vida.csv') data.head()
데이터를 좀 더 자세히 살펴보면 형식을 확인하고 데이터세트의 행과 열 수를 확인할 수 있습니다.
data.shape
여기에는 500행과 9열의 데이터 구조가 있습니다.
이제 어떤 유형의 데이터가 있고 누락된 데이터가 있는지 살펴보겠습니다.
data.info()
여기에는 int(정수) 2개와 float(소수 자릿수가 있는 숫자) 1개를 포함하여 3개의 숫자 열이 있고 나머지 6개는 객체입니다. 그러면 데이터를 약간 처리하는 다음 단계로 넘어갈 수 있습니다.
데이터세트 작업
데이터세트 개선을 위한 좋은 단계는 일부 유형의 데이터가 다른 데이터보다 모델에서 더 쉽게 처리되고 이해된다는 점을 이해하는 것입니다. 예를 들어, 객체 유형의 데이터는 더 무겁고 작업이 제한적이므로 카테고리로 변환하는 것이 더 좋습니다. 이렇게 하면 성능에서 메모리 사용 효율성까지 여러 가지 이점을 얻을 수 있습니다 (In 결국 또 다른 변형을 통해 이를 개선할 수도 있지만 때가 되면 더 잘 설명하겠습니다).
object_columns = data.select_dtypes(include='object').columns for col in object_columns: data[col] = data[col].astype('category') data.dtypes
Como o nosso objetivo é conseguir estipular o valor da mensalidade de um seguro de vida, vamos dar uma olhada melhor nas nossas variáveis numéricas usando a transposição.
data.describe().T
Podemos aqui ver alguns detalhes e valores dos nossos inputs numéricos, como a média aritmética, o valor mínimo e máximo. Através desses dados podemos fazer a separação desses valores em grupos baseados em algum input de categoria, por gênero, se fuma ou não, entre outros, como demonstração vamos fazer a separação por sexo, para visualizar a media aritmética das colunas divididas por sexo.
value_based_on_sex = data.groupby("Sexo").mean("PrecoSeguro") value_based_on_sex
Como podemos ver que no nosso dataset os homens acabam pagando um preço maior de seguro (lembrando que esse dataset é fictício).
Podemos ter uma melhor visualização dos dados através do seaborn, é uma biblioteca construída com base no matplotlib usada especificamente para plotar gráficos estatísticos.
import seaborn as sns sns.set_style("whitegrid") sns.pairplot( data[["Idade", "Salario", "PrecoSeguro", "Sexo"]], hue = "Sexo", height = 3, palette = "Set1")
Aqui podemos visualizar a distribuição desses valores através dos gráficos ficando mais claro a separação do conjunto, com base no grupo que escolhemos, como um teste você pode tentar fazer um agrupamento diferente e ver como os gráficos vão ficar.
Vamos criar uma matriz de correlação, sendo essa uma outra forma de visualizar a relação das variáveis numéricas do dataset, com o auxilio visual de um heatmap.
numeric_data = data.select_dtypes(include=['float64', 'int64']) corr_matrix = numeric_data.corr() sns.heatmap(corr_matrix, annot= True)
Essa matriz transposta nos mostra quais variáveis numéricas influenciam mais no nosso modelo, é um pouco intuitivo quando você olha para a imagem, podemos observar que a idade é a que mais vai interferir no preço do seguro.
Basicamente essa matriz funciona assim:
Os valores variam entre -1 e 1:
1: Correlação perfeita positiva - Quando uma variável aumenta, a outra também aumenta proporcionalmente.
0: Nenhuma correlação - Não há relação linear entre as variáveis.
-1: Correlação perfeita negativa - Quando uma variável aumenta, a outra diminui proporcionalmente.
Lembra da transformada que fizemos de object para category nos dados, agora vem a outra melhoria comentada, com os dados que viraram category faremos mais uma transformada, dessa vez a ideia é transformar essa variáveis categóricas em representações numéricas, isso nos permitirá ter um ganho incrível com o desempenho do modelo já que ele entende muito melhor essas variáveis numéricas.
Conseguimos fazer isso facilmente com a lib do pandas, o que ele faz é criar nova colunas binarias para valores distintos, o pandas é uma biblioteca voltada principalmente para analise de dados e estrutura de dados, então ela já possui diversas funcionalidades que nos auxiliam nos processo de tratamento do dataset.
data = pd.get_dummies(data)
Pronto agora temos nossas novas colunas para as categorias.
Decidindo o Algoritmo
Para a construção do melhor modelo, devemos saber qual o algoritmo ideal para o propósito da ML, na tabela seguinte vou deixar um resumo simplificado de como analisar seu problema e fazer a melhor escolha.
Olhando a tabela podemos ver que o problema que temos que resolver é o de regressão. Aqui vai mais uma dica, sempre comesse simples e vá incrementando seu e fazendo os ajustes necessários até os valores de previsibilidade do modelo ser satisfatório.
Para o nosso exemplo vamos montar um modelo de Regressão Linear, já que temos uma linearidade entre os nossos inputs e temos como target uma variável numérica.
Sabemos que a nossa variável target é a coluna PrecoSeguro , as outras são nossos inputs. Os inputs em estatísticas são chamadas de variável independente e o target de variável dependente, pelos nomes fica claro que a ideia é que o nosso target é uma variável que depende dos nosso inputs, se os inputs variam nosso target tem que vai variar também.
Vamos definir nosso y com o target
y = data["PrecoSeguro"] E para x vamos remover a coluna target e inserir todas as outras X = data.drop("PrecoSeguro", axis = 1)
Antes de montarmos o modelo, nosso dataset precisa ser dividido uma parte para teste e outra para o treino, para fazer isso vamos usar do scikit-learn o método train_test_split.
from sklearn.model_selection import train_test_split X_train,X_test,y_train,y_test=train_test_split( X,y, train_size = 0.80, random_state = 1)
Aqui dividimos o nosso dataset em 80% para treino e 20% para testes. Agora podemos montar o nosso modelo.
from sklearn.linear_model import LinearRegression lr = LinearRegression() lr.fit(X_train,y_train)
Modelo montado agora podemos avaliar seu desempenho
lr.score(X_test, y_test). lr.score(X_train, y_train)
Aqui podemos analisar a o coeficiente de determinação do nosso modelo para testes e para o treinamento.
Podemos usar um outro método para poder descobrir o desvio padrão do nosso modelo, e entender a estabilidade e a confiabilidade do desempenho do modelo para a amostra
<p>from sklearn.metrics import mean_squared_error<br> import math</p> <p>y_pred = lr.predict(X_test)<br> math.sqrt(mean_squared_error(y_test, y_pred))</p>
Considerações
O valor perfeito do coeficiente de determinação é 1, quanto mais próximo desse valor, teoricamente melhor seria o nosso modelo, mas um ponto de atenção é basicamente impossível você conseguir um modelo perfeito, até mesmo algo acima de 0.95 é de se desconfiar.
Se você tiver trabalhando com dados reais e conseguir um valor desse é bom analisar o seu modelo, testar outras abordagens e até mesmo revisar seu dataset, pois seu modelo pode estar sofrendo um overfitting e por isso apresenta esse resultado quase que perfeitos.
Aqui como montamos um dataset com valores irreais e sem nenhum embasamento é normal termos esses valores quase que perfeitos.
Deixarei aqui um link para o github do código e dataset usados nesse post
- GitHub
위 내용은 머신러닝 모델 구축 시 데이터 세트의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

제한된 시간에 Python 학습 효율을 극대화하려면 Python의 DateTime, Time 및 Schedule 모듈을 사용할 수 있습니다. 1. DateTime 모듈은 학습 시간을 기록하고 계획하는 데 사용됩니다. 2. 시간 모듈은 학습과 휴식 시간을 설정하는 데 도움이됩니다. 3. 일정 모듈은 주간 학습 작업을 자동으로 배열합니다.

Python은 게임 및 GUI 개발에서 탁월합니다. 1) 게임 개발은 Pygame을 사용하여 드로잉, 오디오 및 기타 기능을 제공하며 2D 게임을 만드는 데 적합합니다. 2) GUI 개발은 Tkinter 또는 PYQT를 선택할 수 있습니다. Tkinter는 간단하고 사용하기 쉽고 PYQT는 풍부한 기능을 가지고 있으며 전문 개발에 적합합니다.

Python은 데이터 과학, 웹 개발 및 자동화 작업에 적합한 반면 C는 시스템 프로그래밍, 게임 개발 및 임베디드 시스템에 적합합니다. Python은 단순성과 강력한 생태계로 유명하며 C는 고성능 및 기본 제어 기능으로 유명합니다.

2 시간 이내에 Python의 기본 프로그래밍 개념과 기술을 배울 수 있습니다. 1. 변수 및 데이터 유형을 배우기, 2. 마스터 제어 흐름 (조건부 명세서 및 루프), 3. 기능의 정의 및 사용을 이해하십시오. 4. 간단한 예제 및 코드 스 니펫을 통해 Python 프로그래밍을 신속하게 시작하십시오.

Python은 웹 개발, 데이터 과학, 기계 학습, 자동화 및 스크립팅 분야에서 널리 사용됩니다. 1) 웹 개발에서 Django 및 Flask 프레임 워크는 개발 프로세스를 단순화합니다. 2) 데이터 과학 및 기계 학습 분야에서 Numpy, Pandas, Scikit-Learn 및 Tensorflow 라이브러리는 강력한 지원을 제공합니다. 3) 자동화 및 스크립팅 측면에서 Python은 자동화 된 테스트 및 시스템 관리와 같은 작업에 적합합니다.

2 시간 이내에 파이썬의 기본 사항을 배울 수 있습니다. 1. 변수 및 데이터 유형을 배우십시오. 이를 통해 간단한 파이썬 프로그램 작성을 시작하는 데 도움이됩니다.

10 시간 이내에 컴퓨터 초보자 프로그래밍 기본 사항을 가르치는 방법은 무엇입니까? 컴퓨터 초보자에게 프로그래밍 지식을 가르치는 데 10 시간 밖에 걸리지 않는다면 무엇을 가르치기로 선택 하시겠습니까?

Fiddlerevery Where를 사용할 때 Man-in-the-Middle Reading에 Fiddlereverywhere를 사용할 때 감지되는 방법 ...


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

Atom Editor Mac 버전 다운로드
가장 인기 있는 오픈 소스 편집기

VSCode Windows 64비트 다운로드
Microsoft에서 출시한 강력한 무료 IDE 편집기

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는
