画像分類

リクルート社が発表した「japanese-clip-vit-b-32-roberta-base」を使って日本語で画像検索をする

前回に引き続きリクルート社が発表した「japanese-clip-vit-b-32-roberta-base」を使っていきます。 touch-sp.hatenablog.com 今回は日本語での画像検索に挑戦しました。 1年以上前にOpenAIのCLIPを使って同じことをした経験があります。 touch-sp.hatenablo…

リクルート社が発表した「japanese-clip-vit-b-32-roberta-base」を使って日本語でゼロショット画像分類を行う

1年以上前にOpenAIのCLIPを使ってゼロショット画像分類に挑戦した経験があります。 touch-sp.hatenablog.com 今回リクルート社が発表した「japanese-clip-vit-b-32-roberta-base」を使って日本語でゼロショット画像分類に挑戦しました。 huggingface.co 用意…

【ゼロショット画像分類】AutoGluonとTransformersでそれぞれゼロショット画像分類(Zero-Shot Image Classification)を実行。どちらが簡潔に書けるか?

画像 AutoGluonPythonスクリプト from autogluon.multimodal import download, MultiModalPredictor segway_image = download( "https://live.staticflickr.com/7236/7114602897_9cf00b2820_b.jpg") predictor = MultiModalPredictor(problem_type="zero_sho…

【AutoGluon】【Zero-Shot Image Classification】OpenAIのCLIP(Contrastive Language-Image Pre-Training)がAutoGluonから簡単に使えるようです

AutoGluonからOpenAIのCLIP(Contrastive Language-Image Pre-Training)を使ってゼロショット画像分類(Zero-Shot Image Classification)を行いました。AutoGluonからCLIPが簡単に使用できます。

【画像分類】AutoGluon の MultiModalPredictor で「dogs vs cats」をやってみる

公開日:2022年3月14日 最終更新日:2022年9月14日 はじめに データの準備 学習 Pythonスクリプト 出力 テストデータを用いた検証 Pythonスクリプト 出力 推論 画像 Pythonスクリプト 出力 結果 さいごに 環境 MultiModalPredictor関連記事 はじめに犬と猫の…

【AutoGluon】【画像分類】最新のAutoGluonで「dogs vs cats」をやってみる

データセットの作成 学習 Pythonスクリプト 学習結果 テストデータを用いた検証 Pythonスクリプト 検証結果 推論 Pythonスクリプト 推論結果 動作環境 さいごに 追記 データセットの作成データはこちらからダウンロードさせて頂きました。 import glob impor…

【AutoGluon】【画像分類】数行のコードで人と同等の精度が出せるのか?

AutoGluonを使って画像分類を行いました。

MXNet の NumPy Interface を使ってみる

2022年3月16日記事を更新しました。 はじめに 環境 Pythonスクリプト 結果 その他 環境1 環境2 環境3 環境4 はじめにNumpy Interfaceについてはこちらを参照して下さい。 今回は画像分類を行いました。環境二つの環境で動作確認しました。 Windows 10 NVIDIA…

【画像分類】GluonCVの転移学習で「dogs vs cats」をやってみる

まずはデータをフォルダに分ける。 Kaggleからデータをダウンロードすると「train」フォルダに猫の画像、犬の画像それぞれ12500枚入っている。 今回はその中から各2000枚を訓練データ、各1250枚をテストデータとする。 ダウンロードした中には「test」フォル…