ホームページ >バックエンド開発 >PHPチュートリアル >PHP と PyTorch によるディープラーニング

PHP と PyTorch によるディープラーニング

WBOY
WBOYオリジナル
2023-06-19 14:43:381323ブラウズ

ディープラーニングは人工知能分野の重要な分野であり、近年ますます注目を集めています。深層学習の研究と応用を実施できるようにするには、多くの場合、それを達成するためにいくつかの深層学習フレームワークを使用する必要があります。この記事では、PHPとPyTorchを使ってディープラーニングを行う方法を紹介します。

1. PyTorch とは

PyTorch は Facebook が開発したオープンソースの機械学習フレームワークで、ディープ ラーニング モデルを迅速に作成してトレーニングするのに役立ちます。 PyTorch の特徴は、動的コンピューティング グラフを使用してモデルのトレーニングと最適化を実現することであり、この手法により複雑な深層学習モデルをより柔軟に作成できます。同時に、PyTorch は、ディープラーニングの研究とアプリケーションをより便利に実施するのに役立つ豊富な事前トレーニング済みモデルとアルゴリズムも提供します。

2. PHP と PyTorch を使用する理由

他のプログラミング言語と比較して、Python はディープラーニングの分野で非常に人気があり、人気のある言語です。 Python には、深層学習モデルの使用と展開を容易にするサードパーティ ライブラリとオープン ソース ツールが豊富にあります。一方、PHP も広く使用されているプログラミング言語であり、Web アプリケーションや Web サイトの開発に非常に人気があります。 PHP と PyTorch を使用すると、深層学習モデルを Web アプリケーションや Web サイトに適用して、さまざまなインテリジェントな機能を実現できます。たとえば、ディープ ラーニング モデルを Web アプリケーションに埋め込んで顔認識や画像分類などの機能を実装し、PHP を通じてフロントエンドと対話してユーザーに優れたエクスペリエンスを提供できます。

3. PHP と PyTorch をディープ ラーニングに使用する

以下では、PHP と PyTorch をディープ ラーニングに使用する方法を紹介します。

  1. PyTorch のインストール

始める前に、PyTorch ライブラリをインストールする必要があります。インストールについては、PyTorch の公式ドキュメント (https://pytorch.org/get-started/locally/) を参照してください。

  1. Python スクリプトの作成

次に、ディープ ラーニング モデルを作成およびトレーニングするための簡単な Python スクリプトを作成します。このモデルは、手書きの数字を分類するために使用されます。

まず、PyTorch ライブラリとその他の必要なライブラリをインポートする必要があります:

import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader
from torchvision import datasets, transforms

次に、ニューラル ネットワーク モデルを定義します:

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
        self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
        self.dropout = nn.Dropout2d()
        self.fc1 = nn.Linear(320, 50)
        self.fc2 = nn.Linear(50, 10)

    def forward(self, x):
        x = nn.functional.relu(nn.functional.max_pool2d(self.conv1(x), 2))
        x = nn.functional.relu(nn.functional.max_pool2d(self.dropout(self.conv2(x)), 2))
        x = x.view(-1, 320)
        x = nn.functional.relu(self.fc1(x))
        x = nn.functional.dropout(x, training=self.training)
        x = self.fc2(x)
        return nn.functional.log_softmax(x, dim=1)

このニューラル ネットワーク モデルには 2 つの畳み込み層が含まれていますそして 2 つの完全に接続された層。このうち、畳み込み層は入力画像の特徴を抽出するために使用され、全結合層は分類結果を出力するために使用されます。順伝播中、活性化関数として ReLU を使用し、モデルの一般化を促進するために最大プーリングとドロップアウトを使用します。

次に、いくつかのハイパーパラメータとトレーニング パラメータを定義する必要があります。

batch_size = 64
learning_rate = 0.01
momentum = 0.5
epochs = 10

この例では、単純なバッチ確率的勾配降下アルゴリズム (SGD) を使用してモデルを最適化します。各エポックでは、トレーニング データをバッチに分割し、各バッチをトレーニングして最適化します。トレーニング プロセス中に、トレーニング セットとテスト セットの損失と精度を計算して記録します。

train_loader = DataLoader(
    datasets.MNIST('./data', train=True, download=True, transform=transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])),
    batch_size=batch_size, shuffle=True)
test_loader = DataLoader(
    datasets.MNIST('./data', train=False, transform=transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])),
    batch_size=batch_size, shuffle=True)

model = Net()
optimizer = optim.SGD(model.parameters(), lr=learning_rate, momentum=momentum)

train_loss_history = []
train_acc_history = []
test_loss_history = []
test_acc_history = []

for epoch in range(1, epochs + 1):
    # Train
    model.train()
    for batch_idx, (data, target) in enumerate(train_loader):
        optimizer.zero_grad()
        output = model(data)
        loss = nn.functional.nll_loss(output, target)
        loss.backward()
        optimizer.step()
        if batch_idx % 10 == 0:
            print('Epoch [{}/{}], Train Batch: [{}/{}], Train Loss: {:.6f}'.format(epoch, epochs, batch_idx, len(train_loader), loss.item()))
    # Evaluate
    model.eval()
    train_loss = 0
    train_correct = 0
    test_loss = 0
    test_correct = 0
    with torch.no_grad():
        for data, target in train_loader:
            output = model(data)
            train_loss += nn.functional.nll_loss(output, target, reduction='sum').item()
            pred = output.argmax(dim=1, keepdim=True)
            train_correct += pred.eq(target.view_as(pred)).sum().item()
        train_loss /= len(train_loader.dataset)
        train_acc = 100. * train_correct / len(train_loader.dataset)
        train_loss_history.append(train_loss)
        train_acc_history.append(train_acc)
        for data, target in test_loader:
            output = model(data)
            test_loss += nn.functional.nll_loss(output, target, reduction='sum').item()
            pred = output.argmax(dim=1, keepdim=True)
            test_correct += pred.eq(target.view_as(pred)).sum().item()
        test_loss /= len(test_loader.dataset)
        test_acc = 100. * test_correct / len(test_loader.dataset)
        test_loss_history.append(test_loss)
        test_acc_history.append(test_acc)
        print('Epoch {}: Train Loss: {:.6f}, Train Acc: {:.2f}%, Test Loss: {:.6f}, Test Acc: {:.2f}%'.format(epoch, train_loss, train_acc, test_loss, test_acc))
  1. PHP を使用して Python スクリプトを呼び出す

単純な深層学習モデルの作成とトレーニングが完了したので、PHP を使用して Python スクリプトを呼び出す方法を紹介します。この Python スクリプトは、実際のアプリケーションにトレーニング済みモデルを使用します。

PHP の exec 関数を使用して、Python スクリプトを呼び出すことができます。たとえば:

$output = exec("python train.py 2>&1", $output_array);

このコマンドは train.py スクリプトを実行し、出力結果を $output_array 配列に保存します。トレーニング プロセスに時間がかかる場合は、PHP のフラッシュ関数を使用してリアルタイム出力を実現できます。例:

echo '
';
$output = exec("python train.py 2>&1", $output_array);
foreach ($output_array as $o) {
    echo $o . '
'; flush(); } echo '
';

この方法で、深層学習モデルを PHP アプリケーションに統合して使用できます。さまざまなインテリジェントな機能を提供します。

4. 概要

この記事では、単純な手書き数字分類モデルの作成とトレーニングを含む深層学習に PHP と PyTorch を使用する方法と、このモデルを PHP アプリケーションの中間部分に埋め込む方法を紹介します。 。このようにして、深層学習モデルをさまざまな Web アプリケーションや Web サイトに適用して、よりインテリジェントな機能やサービスを提供できます。

以上がPHP と PyTorch によるディープラーニングの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。