画像分類

リクルート社が発表した「japanese-clip-vit-b-32-roberta-base」を使って日本語で画像検索をする

前回に引き続きリクルート社が発表した「japanese-clip-vit-b-32-roberta-base」を使っていきます。 touch-sp.hatenablog.com 今回は日本語での画像検索に挑戦しました。 1年以上前にOpenAIのCLIPを使って同じことをした経験があります。 touch-sp.hatenablo…

リクルート社が発表した「japanese-clip-vit-b-32-roberta-base」を使って日本語でゼロショット画像分類を行う

1年以上前にOpenAIのCLIPを使ってゼロショット画像分類に挑戦した経験があります。 touch-sp.hatenablog.com 今回リクルート社が発表した「japanese-clip-vit-b-32-roberta-base」を使って日本語でゼロショット画像分類に挑戦しました。 huggingface.co 用意…

【ゼロショット画像分類】AutoGluonとTransformersでそれぞれゼロショット画像分類(Zero-Shot Image Classification)を実行。どちらが簡潔に書けるか?

画像 AutoGluonPythonスクリプト from autogluon.multimodal import download, MultiModalPredictor segway_image = download( "https://live.staticflickr.com/7236/7114602897_9cf00b2820_b.jpg") predictor = MultiModalPredictor(problem_type="zero_sho…

【AutoGluon】【Zero-Shot Image Classification】OpenAIのCLIP(Contrastive Language-Image Pre-Training)がAutoGluonから簡単に使えるようです

AutoGluonからOpenAIのCLIP(Contrastive Language-Image Pre-Training)を使ってゼロショット画像分類(Zero-Shot Image Classification)を行いました。AutoGluonからCLIPが簡単に使用できます。

【画像分類】AutoGluon の MultiModalPredictor で「dogs vs cats」をやってみる

公開日:2022年3月14日 最終更新日:2022年9月14日 はじめに データの準備 学習 Pythonスクリプト 出力 テストデータを用いた検証 Pythonスクリプト 出力 推論 画像 Pythonスクリプト 出力 結果 さいごに 環境 MultiModalPredictor関連記事 はじめに犬と猫の…

【AutoGluon】【画像分類】最新のAutoGluonで「dogs vs cats」をやってみる

データセットの作成 学習 Pythonスクリプト 学習結果 テストデータを用いた検証 Pythonスクリプト 検証結果 推論 Pythonスクリプト 推論結果 動作環境 さいごに 追記 データセットの作成データはこちらからダウンロードさせて頂きました。 import glob impor…

【AutoGluon】【画像分類】数行のコードで人と同等の精度が出せるのか?

AutoGluonを使って画像分類を行いました。