ホームページ >ウェブフロントエンド >jsチュートリアル >これがデジタル製品の分析ツールを構築した方法です
皆さん、
最近、私はあらゆる種類のデータ分析に夢中になっています。
副業を探していたとき、さまざまな選択肢を模索し、デジタル製品の世界に出会いました。 Gumroad、Ko-fi などのプラットフォームがこの市場を独占しています。
しかし、最初の段階で障害にぶつかりました。何百もの製品があるのです。
さて、どれを売ればいいでしょうか?
さまざまな記事やプラットフォームを調査した結果、十分な情報に基づいた決定を下すのに十分な確かなデータがないことがわかりました。
これにより、私は最大のデジタル製品マーケットプレイスの 1 つである Gumroad のトレンドを追跡し始めました。
私は、公開されている Gumroad API への基本的な API リクエストを実行する単純な JavaScript スクリプトから始めました。これらのリクエストはブラウザの [ネットワーク] タブで簡単に確認できます:
https://gumroad.com/products/search?&tags[]=vrchat&from=10
良いスタートでした。最も人気のある 10 個のタグを追跡し、毎日データを取得することにしました。
私が使用した技術スタック:
うまくいきました。数日続けてデータを収集したところ、さらに拡張するのに十分な興味深いデータであることがわかりました。 X のコミュニティからのサポートも受けたので、次のステップに進むことにしました。
最も人気のあるタグを知るだけでは十分ではないことに気づきました。本当の可能性は、増加しているタグを特定することにあります。
次の反復では、最も人気のあるニッチからサブタグを収集し、この方法で 5,000 個を超えるタグを収集しました。
これにより毎日 20,000 行を超えるデータが生成されるため、ストレージ ソリューションが必要でした。
MongoDB Atlas で無料のクラスターをホストすることは依然として可能であり、MongoDB は JavaScript とうまく組み合わせられるため、ストレージ オプションとしてこれを選択しました。これでデータが保存され、さまざまな分析を実行できるようになりました。
もう 1 つの課題は、データの収集に必要な時間でした。
最初は5時間もかかりました。そこでプロキシのことを知りました。データを並行して処理するために複数のプロキシ サーバーを設定した結果、収集時間は 5 時間からわずか 30 分に短縮されました。
すべてのスクリプトを手動で実行していたため、プロセスを自動化することにしました。
Hetzner のリモート サーバーでソース コードをホストし、crontab 経由で cron ジョブをセットアップしました。
0 18 * * * /usr/bin/node index.js collect-data 0 21 * * * /usr/bin/node index.js collect-totals
最初のジョブはデータを収集し、2 番目のジョブはそれを集計して要約します。重複を削除し、前日と比較した成長率を計算します。
const [mode = 'collect-data'] = process.argv.slice(2); if (mode === 'collect-data') { return collectData(); } if (mode === 'collect-totals') { return collectTotals(); }
このプロジェクト用にシンプルな UI を作成し、公開して共有することにしました。こうしてgumroadtrends.comは立ち上げられました。
私が使用したもの:
UI は次のようになります:
わずか 7 日間のデータでは傾向を理解するのが難しいため、自動操縦でデータの収集を続け、より深い洞察を得るために数週間後に再訪する予定です。
この製品を構築するために使用したものを喜んで共有します。これは、私が参加している #buildinpublic コミュニティへのささやかな貢献です。
プロジェクトの成功を祈ってください!
このトピックにご興味がございましたら、お気軽にお問い合わせください。 X でフォローしてください
以上がこれがデジタル製品の分析ツールを構築した方法ですの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。