首頁 >科技週邊 >人工智慧 >Openai O1-preiview教程:構建機器學習項目

Openai O1-preiview教程:構建機器學習項目

Christopher Nolan
Christopher Nolan原創
2025-03-04 09:13:10292瀏覽

在本教程中,我們將從頭開始創建一個水質分類器應用程序,並使用Docker部署到雲中。 

>我們將首先探索OpenAI O1模型並了解其功能。然後,我們將通過API和CHATGPT訪問該模型,並在開發構建水質分類器應用程序的有效提示之前,先嘗試O1-preiview和O1-Mini版本。 

>輸出後,我們將通過本地執行Python代碼來將O1模型提供的代碼和文件添加到項目文件夾中,然後加載,預處理,訓練和評估。最後,我們將構建一個FastAPI應用程序,並使用Docker將其部署在擁抱面上。

>

如果您是AI的新手,那麼AI基礎知識技能軌道是一個不錯的起點。它將幫助您了解流行的AI主題,例如Chatgpt和大型語言模型。 

Openai O1-preiview教程:構建機器學習項目

>由作者 圖像

開始使用O1-preiview和O1-Mini

>有許多易於訪問的O1型號,但是官方型號是通過OpenAI API或使用Chatgpt Plus或團隊訂閱。 

在本節中,我們將學習如何使用它們來解決複雜的問題。

訪問O1模型

>如果您熟悉OpenAI API進行聊天完成,則必須將模型名稱設置為“ O1-Preview”並提供詳細的提示。這是那麼簡單的。

>要在Chatgpt上訪問它,您必須單擊“模型選擇”下拉選項,然後選擇“ O1-Preview”模型,如下所示。
from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)

Openai O1-preiview教程:構建機器學習項目在chatgpt中使用o1-preview模型

O1模型的提示不同。您必須為其提供多個說明或詳細問題,以充分實現其力量。生成最佳答案可能需要長時間複雜的指示。

>計算歐洲自由職業業務的稅收可能很複雜。我們將使用O1模型來確定我們對西班牙政府的納稅責任。

提示:“

我是西班牙的自由職業者,在美國一家公司工作。在過去的一年中,我賺了12萬美元,我需要計算我所欠的稅款。請考慮我8個月前搬到西班牙。

>響應花費了將近30秒,但響應詳細介紹了。它包括數學方程式,稅收信息以及所有必要的細節,以確定我們欠西班牙政府多少。

響應分為以下部分:

  1. 確定您的稅收居留狀態
  2. >將您的收入轉換為歐元
  3. 計算您的應稅收入
  4. 計算社會保障貢獻
  5. 欠估計稅的總估計
  6. 重要說明
  7. 下一步
審查摘要部分為我們提供了欠政府的大約稅款,這很有幫助。 

Openai O1-preiview教程:構建機器學習項目

>您可以單擊聊天響應中的下拉菜單,以查看思想和決策鏈。 

>我們可以看到該模型在回答您的問題之前了解他的背景,稅收影響和稅收範圍。

Openai O1-preiview教程:構建機器學習項目在chatgpt

中使用O1-Mini模型 O1-MINI模型的準確性較差,但要比O1-preview模型更快。在我們的情況下,我們將使用此模型來創建一個用於數據科學恢復的靜態網站。

>提示:“

請使用Python框架為我的數據科學簡歷創建一個靜態網站。

>不僅創建了一個適當的簡歷網站,而且還為我們提供了有關如何免費在Github頁面上發布的指南。 >

響應分為以下部分:

Pelican簡介Openai O1-preiview教程:構建機器學習項目

>先決條件

設置鵜鶘

選擇一個主題
  1. 創建您的簡歷內容
  2. 構建網站
  3. 與Makefile
  4. 自動化
  5. >部署您的簡歷網站
  6. 增強您的簡歷網站
  7. 其他資源
  8. >在響應中顯示思想鍊是一個很棒的功能。我們可以清楚地看到該模型正在考慮將鵜鶘,燒瓶或雨果用作網絡框架。最後,它選擇了最好的解決方案。
  9. openai o1-preiview教程:構建水質分類器應用程序
  10. >
  11. 在此項目中,我們將使用O1-preiview模型來構建和部署水質分類應用程序。這是一個非常複雜的項目,因為我們將為它提供有關我們想要的內容的詳細描述。
如果您有興趣使用Chatgpt構建數據科學項目,請查看使用CHATGPT進行數據科學項目的指南。您將學習如何使用CHATGPT進行項目計劃,數據分析,數據預處理,模型選擇,超參數調整,開發Web應用程序並部署。

1。及時工程

>我們將在及時工程上花費更多的時間,因為我們要確保將所有項目指令都提供給模型。 Openai O1-preiview教程:構建機器學習項目

提示分為三個部分:
  1. 項目描述:對項目的詳細說明以及我們要構建的內容。 >
  2. 目標和限制:提供目標信息,例如旨在實現90%的準確性。  
  3. >遵循的步驟:提供您要採取的所有必要步驟。例如,使用Kaggle API攝入數據,將指標保存在文件夾中,執行數據分析,培訓和評估模型等等。編寫盡可能多的步驟。
>閱讀chatgpt的初學者指南提示工程,以了解如何在chatgpt中編寫適當的提示並生成所需的結果。迅速的工程是一門藝術,隨著O1模型的引入,已經變得更加必要學習。

提示:“我的項目經理已任務使用https://www.kaggle.com/datasets/adityakadiwal/water-potability提供的Kaggle數據集開發水質應用程序。請提供有關文件,Python軟件包和代碼的所有必要信息,以便我們可以構建一個高度準確的模型。

目標是達到90%的總體準確性。 

請按照構建項目的步驟:

1。使用API​​從Kaggle加載數據集並將其解壓縮到數據文件夾中。

2。預處理數據並執行一些數據分析。將分析數字和文件保存在“指標”文件夾中。

>

3。使用Scikit-Learn框架訓練模型。確保您跟踪實驗並保存模型文件和元數據。使用Skos庫保存模型。 

4。執行詳細的模型評估並保存結果。

>

5。創建一個FastApi應用程序,該應用程序從用戶那裡獲取圖像並預測水的質量。 >

6。確保使用JINJA2模板添加用戶界面。

>

7。使用Docker選項將應用程序部署在擁抱麵線上。

生成的響應為我們提供了加載數據,預處理,訓練和評估模型,創建FastAPI應用程序,創建用戶界面並部署它所需的所有信息。 

問題是它是分散的,我們希望它創建python和html文件,以便我們複製和粘貼代碼。

>現在,我們將將所有代碼轉換為Python和HTML文件,使我們的生活更加輕鬆。

>

後續提示:“請將代碼轉換為Python文件。” 

如我們所見,我們有一個項目結構,其中包含所有文件和代碼。我們要做的就是創建文件夾和文件,然後復制並粘貼代碼。

Openai O1-preiview教程:構建機器學習項目

2。設置

O1模型提供了設置項目目錄所需的所有信息。我們只需要使用代碼編輯器在項目目錄中創建文件夾和文件。 

我們將創建以下文件夾:>

>應用程序:此文件夾將包含FastApi和HTML模板的應用程序文件。
  1. 數據:此文件夾將包含原始數據和預處理數據。
  2. >
  3. >指標:此文件夾將包含模型評估數據和數據分析。
  4. 模型:此文件夾將包含保存的模型和縮放器對象。 >
  5. > src:此文件夾將包含所有可以幫助我們進行加載,處理,培訓和評估的Python文件。
  6. >
  7. >此外,主要目錄將包含Dockerfile,readme和unignts.txt文件。

3。加載數據集

>我們將使用Kaggle API加載水質Kaggle數據集並將其解壓縮到數據文件夾中。 Openai O1-preiview教程:構建機器學習項目

> datadownload_data.py:

運行Python文件將下載數據集,解壓縮並刪除zip文件。 

$ python .srcdownload_data.py

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)

4。預處理數據並執行數據分析

>預處理python文件將加載數據,清潔,處理丟失的數據,縮放它,然後保存縮放器和預處理數據集。它還將執行數據分析並保存指標和數據可視化。

>
import os

# Ensure the data directory exists
os.makedirs("data", exist_ok=True)

# Download the dataset
os.system("kaggle datasets download -d adityakadiwal/water-potability -p data --unzip")
> datapreprocess_data.py:

>我們獲得了預處理數據和所有數據分析報告。 

Dataset URL: https://www.kaggle.com/datasets/adityakadiwal/water-potability
License(s): CC0-1.0
Downloading water-potability.zip to data
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 304kB/s]
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 303kB/s]
import os
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.impute import SimpleImputer
from sklearn.preprocessing import StandardScaler
import joblib

# Create directories if they don't exist
os.makedirs("metrics", exist_ok=True)
os.makedirs("models", exist_ok=True)

# Load the dataset
data = pd.read_csv("data/water_potability.csv")

# Check for missing values and save the summary
missing_values = data.isnull().sum()
missing_values.to_csv("metrics/missing_values.csv")

# Statistical summary
stats = data.describe()
stats.to_csv("metrics/data_statistics.csv")

# Pair plot
sns.pairplot(data, hue="Potability")
plt.savefig("metrics/pairplot.png")

# Correlation heatmap
plt.figure(figsize=(10, 8))
sns.heatmap(data.corr(), annot=True)
plt.savefig("metrics/correlation_heatmap.png")

# Handle missing values
imputer = SimpleImputer(strategy="mean")
data_imputed = pd.DataFrame(imputer.fit_transform(data), columns=data.columns)

# Feature scaling
scaler = StandardScaler()
features = data_imputed.drop("Potability", axis=1)
target = data_imputed["Potability"]
features_scaled = scaler.fit_transform(features)

# Save the scaler
joblib.dump(scaler, "models/scaler.joblib")

# Save preprocessed data
preprocessed_data = pd.DataFrame(features_scaled, columns=features.columns)
preprocessed_data["Potability"] = target
preprocessed_data.to_csv("metrics/preprocessed_data.csv", index=False)

5。建築和培訓

>訓練腳本加載了預處理數據,並使用它來訓練隨機的森林分類器。然後,Skope用於保存模型,手動跟踪實驗,然後將模型元數據保存為JSON文件。 Openai O1-preiview教程:構建機器學習項目

> srctrain_model.py:

培訓腳本將生成模型文件和元數據,如下所示。

$ python .\src\preprocess_data.py 
import os
import json
import skops.io as sio
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier

# Load preprocessed data
data = pd.read_csv("metrics/preprocessed_data.csv")
features = data.drop("Potability", axis=1)
target = data["Potability"]

# Split the data
X_train, X_test, y_train, y_test = train_test_split(
    features, target, test_size=0.2, random_state=42, stratify=target
)

# Train the model
model = RandomForestClassifier(n_estimators=200, random_state=42)
model.fit(X_train, y_train)

# Save the model using skops
os.makedirs("models", exist_ok=True)
sio.dump(model, "models/water_quality_model.skops")

# Track experiments and save metadata
metadata = {
    "model_name": "RandomForestClassifier",
    "parameters": model.get_params(),
    "training_score": model.score(X_train, y_train),
}

with open("models/metadata.json", "w") as f:
    json.dump(metadata, f, indent=4)
6。模型評估

>模型評估腳本加載已處理的數據和保存的模型,以生成分類報告,混亂矩陣,ROC曲線,AUC和整體準確性。所有的指標和數字都保存在指標文件夾中。

> Openai O1-preiview教程:構建機器學習項目> srcevaluate_model.py:

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)
import os

# Ensure the data directory exists
os.makedirs("data", exist_ok=True)

# Download the dataset
os.system("kaggle datasets download -d adityakadiwal/water-potability -p data --unzip")

>總體準確性不是很好。但是,我們總是可以要求O1模型提高準確性。                                                      

Dataset URL: https://www.kaggle.com/datasets/adityakadiwal/water-potability
License(s): CC0-1.0
Downloading water-potability.zip to data
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 304kB/s]
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 303kB/s]

指標文件夾包含所有保存的模型評估數字和指標。我們可以手動查看它以詳細了解模型性能。

Openai O1-preiview教程:構建機器學習項目

7。創建一個FastApi應用程序

為了為FastAPI應用程序創建用戶界面,我們需要創建索引和結果頁面。這可以通過在應用程序目錄中創建模板文件夾並添加兩個HTML文件來完成這一點:一個用於主頁,一個用於結果頁面。

>查看FastAPI教程:使用FastApi詳細了解FastAPI框架以及如何在項目中實現它的簡介。 

如果您不熟悉HTML,請不要擔心。您只需要復制和粘貼代碼並信任O1模型即可。 

> appTemplatesform.html:

import os
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.impute import SimpleImputer
from sklearn.preprocessing import StandardScaler
import joblib

# Create directories if they don't exist
os.makedirs("metrics", exist_ok=True)
os.makedirs("models", exist_ok=True)

# Load the dataset
data = pd.read_csv("data/water_potability.csv")

# Check for missing values and save the summary
missing_values = data.isnull().sum()
missing_values.to_csv("metrics/missing_values.csv")

# Statistical summary
stats = data.describe()
stats.to_csv("metrics/data_statistics.csv")

# Pair plot
sns.pairplot(data, hue="Potability")
plt.savefig("metrics/pairplot.png")

# Correlation heatmap
plt.figure(figsize=(10, 8))
sns.heatmap(data.corr(), annot=True)
plt.savefig("metrics/correlation_heatmap.png")

# Handle missing values
imputer = SimpleImputer(strategy="mean")
data_imputed = pd.DataFrame(imputer.fit_transform(data), columns=data.columns)

# Feature scaling
scaler = StandardScaler()
features = data_imputed.drop("Potability", axis=1)
target = data_imputed["Potability"]
features_scaled = scaler.fit_transform(features)

# Save the scaler
joblib.dump(scaler, "models/scaler.joblib")

# Save preprocessed data
preprocessed_data = pd.DataFrame(features_scaled, columns=features.columns)
preprocessed_data["Potability"] = target
preprocessed_data.to_csv("metrics/preprocessed_data.csv", index=False)

> appTemplatesResult.html:

$ python .\src\preprocess_data.py 

主應用程序Python文件具有兩個Python函數:主頁和預測。 “主頁”功能顯示包含輸入框和一個按鈕的歡迎頁面。 “預測”函數會轉換用戶輸入,通過模型運行並顯示結果,指示水是否飲用。

>

> apptemplatesmain.py:

import os
import json
import skops.io as sio
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier

# Load preprocessed data
data = pd.read_csv("metrics/preprocessed_data.csv")
features = data.drop("Potability", axis=1)
target = data["Potability"]

# Split the data
X_train, X_test, y_train, y_test = train_test_split(
    features, target, test_size=0.2, random_state=42, stratify=target
)

# Train the model
model = RandomForestClassifier(n_estimators=200, random_state=42)
model.fit(X_train, y_train)

# Save the model using skops
os.makedirs("models", exist_ok=True)
sio.dump(model, "models/water_quality_model.skops")

# Track experiments and save metadata
metadata = {
    "model_name": "RandomForestClassifier",
    "parameters": model.get_params(),
    "training_score": model.score(X_train, y_train),
}

with open("models/metadata.json", "w") as f:
    json.dump(metadata, f, indent=4)
我們將首先在本地測試該應用程序,以驗證它是否正在運行。

>

通過使用UVicorn運行Python文件,我們獲得了可以復制並粘貼到我們的瀏覽器中的本地地址。 
$ python .\src\train_model.py 

注意:O1模型也提供了有關如何運行文件的所有信息。

如我們所見,該應用程序正常工作。 

import os
import json
import pandas as pd
import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.metrics import (
    classification_report,
    confusion_matrix,
    roc_auc_score,
    roc_curve,
)
import skops.io as sio
from sklearn.model_selection import train_test_split

# Load preprocessed data
data = pd.read_csv("metrics/preprocessed_data.csv")
features = data.drop("Potability", axis=1)
target = data["Potability"]

# Split the data
X_train, X_test, y_train, y_test = train_test_split(
    features, target, test_size=0.2, random_state=42, stratify=target
)

# Load the model
model = sio.load("models/water_quality_model.skops")

# Predictions
y_pred = model.predict(X_test)
y_pred_proba = model.predict_proba(X_test)[:, 1]

# Classification report
report = classification_report(y_test, y_pred, output_dict=True)
with open("metrics/classification_report.json", "w") as f:
    json.dump(report, f, indent=4)

# Confusion matrix
cm = confusion_matrix(y_test, y_pred)
sns.heatmap(cm, annot=True, fmt="d")
plt.title("Confusion Matrix")
plt.ylabel("Actual Label")
plt.xlabel("Predicted Label")
plt.savefig("metrics/confusion_matrix.png")

# ROC curve and AUC
fpr, tpr, _ = roc_curve(y_test, y_pred_proba)
roc_auc = roc_auc_score(y_test, y_pred_proba)

plt.figure()
plt.plot(fpr, tpr, label="AUC = %0.2f" % roc_auc)
plt.plot([0, 1], [0, 1], "k--")
plt.legend(loc="lower right")
plt.xlabel("False Positive Rate")
plt.ylabel("True Positive Rate")
plt.title("Receiver Operating Characteristic")
plt.savefig("metrics/roc_curve.png")

# Overall accuracy
accuracy = model.score(X_test, y_test)
print(f"Overall Accuracy: {accuracy * 100:.2f}%")

>讓我們提供隨機值以檢查水質並按預測按鈕。 

Openai O1-preiview教程:構建機器學習項目

結果很棒。它表明水是不可酒的。

Openai O1-preiview教程:構建機器學習項目

>您甚至可以通過在URL之後鍵入“/docs”來測試API並生成結果來訪問FastApi Swagger UI。 

Openai O1-preiview教程:構建機器學習項目

8。使用docker

部署該應用程序在擁抱臉部集線器上

> OpenAI O1模型已經生成了Docker代碼,指南和參考鏈接,以成功地學習如何在擁抱面前部署應用程序。

閱讀數據科學的Docker:一個了解Docker的工作方式的簡介教程。您將學習如何設置Docker,使用Docker命令,Dockerize機器學習應用程序並遵循行業範圍的最佳實踐。

首先,通過單擊“擁抱臉”網站上的個人資料圖片,然後單擊“新空間”按鈕來創建一個新的空間。輸入應用程序名稱,選擇SDK類型(Docker),選擇許可證類型,然後按“創建空間”。

Openai O1-preiview教程:構建機器學習項目

>來源:擁抱臉

>在主頁上提供了使用Docker部署該應用程序的所有說明。

Openai O1-preiview教程:構建機器學習項目

來源:水質分類器

接下來,我們必須克隆存儲庫。

>

在存儲庫中,移動應用程序和模型文件夾。創建一個dockerfile並鍵入以下命令。 O1模型為我們提供了代碼;我們只需要將端口號更改為7860。
from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)
>

> dockerfile:

>創建需求.txt文件,其中包含有關Python軟件包的信息。我們將使用此文件下載並在雲服務器上安裝所有必需的Python軟件包。 >
import os

# Ensure the data directory exists
os.makedirs("data", exist_ok=True)

# Download the dataset
os.system("kaggle datasets download -d adityakadiwal/water-potability -p data --unzip")
>要求.txt:

這是我們的應用存儲庫應該看起來的方式:

Dataset URL: https://www.kaggle.com/datasets/adityakadiwal/water-potability
License(s): CC0-1.0
Downloading water-potability.zip to data
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 304kB/s]
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 303kB/s]

我們的模型是一個大文件(&GT; 10MB),因此我們需要使用Git LFS跟踪它。安裝git lfs,並使用擴展名“ .skops”跟踪所有文件。 Openai O1-preiview教程:構建機器學習項目>

階段所有更改,使用消息提交,然後將其推向遠程服務器。

import os
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.impute import SimpleImputer
from sklearn.preprocessing import StandardScaler
import joblib

# Create directories if they don't exist
os.makedirs("metrics", exist_ok=True)
os.makedirs("models", exist_ok=True)

# Load the dataset
data = pd.read_csv("data/water_potability.csv")

# Check for missing values and save the summary
missing_values = data.isnull().sum()
missing_values.to_csv("metrics/missing_values.csv")

# Statistical summary
stats = data.describe()
stats.to_csv("metrics/data_statistics.csv")

# Pair plot
sns.pairplot(data, hue="Potability")
plt.savefig("metrics/pairplot.png")

# Correlation heatmap
plt.figure(figsize=(10, 8))
sns.heatmap(data.corr(), annot=True)
plt.savefig("metrics/correlation_heatmap.png")

# Handle missing values
imputer = SimpleImputer(strategy="mean")
data_imputed = pd.DataFrame(imputer.fit_transform(data), columns=data.columns)

# Feature scaling
scaler = StandardScaler()
features = data_imputed.drop("Potability", axis=1)
target = data_imputed["Potability"]
features_scaled = scaler.fit_transform(features)

# Save the scaler
joblib.dump(scaler, "models/scaler.joblib")

# Save preprocessed data
preprocessed_data = pd.DataFrame(features_scaled, columns=features.columns)
preprocessed_data["Potability"] = target
preprocessed_data.to_csv("metrics/preprocessed_data.csv", index=False)

>在擁抱臉上轉到您的應用頁面,您會發現它正在構建容器並安裝所有必要的軟件包。 

$ python .\src\preprocess_data.py 

來源:水質分類器Openai O1-preiview教程:構建機器學習項目

幾分鐘後,該應用程序將準備好使用。它看起來類似於本地應用。讓我們嘗試為其提供樣本值並生成結果。 

來源:水質分類器Openai O1-preiview教程:構建機器學習項目

我們的應用程序正常運行,並產生了預期的結果。

>

來源:水質分類器Openai O1-preiview教程:構建機器學習項目

這個擁抱的面部空間應用程序可供任何人使用,這意味著我們可以使用終端中的curl命令訪問它。 

>輸出:

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)

所有項目文件,數據,模型和元數據都可以在KingAbzPro/Water-water-app github存儲庫上提供。

作者的意見

O1-Preview模型遠遠優於GPT-4O。它完美地遵循說明,並且無漏洞,因此它生成的代碼已準備就緒。在構建機器學習應用程序時,我只需要進行次要更改,約為5%。最好的部分是,我還從AI模型的決策中學到了為什麼它做出某些選擇的原因。
abid ali ali ali awan

>結論

在本教程中,我們已經看到了OpenAI的O1推理模型的功能。我們建立了一個完整的機器學習項目,只需對代碼進行一些更改,它立即起作用。該模型完美地處理了每個命令,並產生了出色的結果,而無需進行後續說明。

>現在,我們可以訪問O1模型的較小版本,例如O1-Preview和O1 Mini。將來,我們將可以訪問完整的O1模型,這對於構建複雜的項目甚至會更好。關鍵是要提出正確的問題以從模型中獲得最大收益。 使用AI模型

構建機器學習項目很簡單,但是如果您想使其成為職業,則需要了解這些模型的工作原理。沒有這些,很難解決問題或將模型應用於特定的業務需求。為了獲得這種理解,我們建議初學者將機器學習科學家帶入Python職業軌道。它包括21個課程和3個項目,可以教您如何建立和改善不同類型的機器學習模型。

>賺取頂級AI認證

>證明您可以有效,負責任地使用AI。

以上是Openai O1-preiview教程:構建機器學習項目的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn