DeepSite AIとは?革新的なウェブ開発の新アプローチ DeepSiteの使い方とインターフェース DeepSiteで何が作れるのか?実力と限界 「ブラウザ用のカーソル」としてのDeepSite DeepSiteの可能性と今後の展望 他のAIウェブ開発ツールとの比較 まとめ:DeepSiteの可能性と未来 2025年になり、AI技術の進化はますます加速しています。その中でも特に注目を集めているのが、Hugging Faceが提供する「DeepSite」というAIウェブ開発ツールです。このツールを使えば、プログラミング知識がまったくない人でも、自然言語で指示を出すだけで機能するウェブサイト…
お疲れ様です。 Gemma3が公開されましたね。 Twitterで話題になっていて、使ってみたい欲が高くなったのでとりあえず試してみました。 使用したモデルは以下です。RTX4060ti(VRAM16GB)を使用してローカルで動かしました。 huggingface.co 事前準備 Gemma3を使うためにはいろいろと準備が必要だったのでこちらもメモ的にまとめておきます。 Hugging Faceのアカウント作成 こちらのサイト参考にアカウント作成までやりました。 Hugging Faceの使い方!アクセストークン作成からログインまで | EdgeHUB Gemmaの利用登録 Hugging F…
こんにちは、CCCMKホールディングス TECH LABの三浦です。 あけましておめでとうございます。2025年がはじまりました。今年もまた、色々なことを試していきたいなと思います! 昨年末にNeurIPS 2024に参加してから、LLMの"Post Training"というアプローチに興味を持っています。Post Trainingは、日本語では"事前学習"と呼ばれている"Pre Training"の後に行われるLLMの学習工程です。今回はPost Trainingで行われる、LLMの出力をより好ましいものに調整する"Preference Learning"で使用されるDPO(Direct P…
この記事は、 KENTEM TechBlog アドベントカレンダー2024 25日目、12月25日の記事です。 はじめに メリークリスマス!今年新卒で入社したK.Mです!昨日から今日まで弊社では、開発部でテックカンファレンスが開催されていました!かくいう私も運営&登壇者として参加させていただき、ドタバタしつつも非常に有意義な時間を過ごすことができました!そんな状態でしたが、今年の集大成としてフロントエンド×バックエンド×AIを使ったローカルで動く簡単なWebアプリを作ってみたのでご紹介したいと思います! 概要 アプリ概要 今回は、日本語を英語に翻訳するWebアプリを作成しました。ざっくりとした…
はじめに 魔瞳の大鷲寮に入りました! nikkieです。 Hugging Face社が開発する、機械学習評価指標のライブラリについて、なぜ非推奨のインストール方法を案内するエラーメッセージが出されるのか調べました。 目次 はじめに 目次 🤗 evaluate 「you need to install dependencies['scikit-learn'] using 'pip install sklearn'」 pip install sklearnという案内による混乱と、対応の過程 実装を覗く エラーメッセージ送出箇所 sklearnという文字列はどこから来るのか 終わりに 🤗 evalu…
こんにちは、CCCMKホールディングスTECH LAB三浦です。 先日花火を久しぶりに見ました。遠くから眺めるだけだったのですが、色々な色や形の花火が見られました。花火の形も時代とともに変わっていくのだなぁとしみじみしました。 さて、以前オープンソースのLLMを少ないリソース環境下でも推論用途で使用可能にするOllamaというツールを使ってエッジコンピュータの"Jetson AGX ORIN"でLLMやVision Language Model(VLM)を動かした話をまとめました。 techblog.cccmkhd.co.jp OllamaではGGUFというフォーマットで出力されたモデルをロー…
さてさて、 BLIP , UniDiffuser で 自動キャプショニング(Image captioning, Image-toText) を実施しましたが、ここ数日は BLIP-2 を調べていました。 本日は BLIP-2 での ずんだもん のキャプションを出力してみます。
zako-lab929.hatenablog.com 前回、 BLIP-2 で Image Captioning (自動キャプショニング) を試してみました。 本日は、 Visual Question Answering (VQA) を試してみようと思います。
自作 LoRA を調べていて kohya-ss/sd-scripts の README から知った 自動キャプショニング の BLIP 。 そして、 BLIP を調べていたら BLIP-2 もあることを知りました。 今回は BLIP-2 を Google Colab で試してみます! BLIP-2 がどういったものかは説明を読んでもよくわからない!
こんにちは、CCCMKホールディングスTECH LAB三浦です。 最近AIと英語で会話が出来る英会話アプリを使ってみました。最初は人と直接話す感覚と違い、少し違和感を感じたのですが、慣れてくると気にならなくなり、なんでも気兼ねなく話すことが出来るメリットを感じられるようになりました。英会話アプリに限らず、いつかAIと普通に会話をしながら色々な勉強をしたりタスクをこなすような世界が来るのかも、とふと思いました。 普段LLMを使うときはAzure OpenAI Serviceで提供されている"gpt-35-turbo-16k"を使うことが多いのですが、オープンソースのLLMの精度も向上しており、一…