株式会社ずんだもん技術室AI放送局

By: 株式会社ずんだもん技術室AI放送局
  • Summary

  • AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。(MC 月:春日部つむぎ、火水木:ずんだもん、金:お嬢様ずんだもん)
    Show more Show less
Episodes
  • 株式会社ずんだもん技術室AI放送局 podcast 20250219
    Feb 18 2025
    関連リンク
    • LangMem SDK for agent long-term memory

    LangMem SDKは、AIエージェントに長期記憶を持たせ、学習能力と個別対応力を向上させるためのライブラリです。会話から情報を抽出し、プロンプトを更新してエージェントの行動を最適化し、行動、事実、イベントに関する長期記憶を維持する機能を提供します。Semantic memory(知識)、Episodic memory(経験)、Procedural memory(行動)の3種類の記憶タイプをサポートし、エージェントが長期にわたって学習し、より賢く、よりパーソナライズされた応答を生成することを支援します。

    引用元: https://blog.langchain.dev/langmem-sdk-launch/

    • LLMs.txtについての覚書

    LLMがWebをクロールする際の負荷を軽減する目的で提案されたLLMs.txtについて解説。これは、LLMがWebサイトの情報を効率的に取得するための仕様を記述したテキストファイルです。robots.txtが検索エンジンのクローラーを制御するのに対し、LLMs.txtはLLMにサイト構造を伝えるサマリーとして機能します。完全な情報を提供するllms-full.txtも存在します。LLM利用者は、RAGなどの際にLLMs.txtの存在を意識すると良いでしょう。

    引用元: https://zenn.dev/watany/articles/0b28a68a2dffc3

    • Github Copilot Agentでパワーが4倍に、1週間を振り返る|sys1yagi

    GitHub Copilot Agentを1週間試した結果、PR数が4倍になったとのこと。アイデア実現のハードルが下がり、定型作業が自動化可能になった。一方で、lintやCIの速度、レビュー速度がボトルネックに。テストの品質と実行速度、動作確認の速度も重要になる。今後はチームでの活用が鍵となり、チームの取り組み方のアップデートが必要。

    引用元: https://note.com/sys1yagi/n/n9a7b93554e3a

    • 「ずんだもん」「チェイス」の雪像お目見え 木古内釜谷国道沿い 2025/2/17 函館新聞社/函館地域ニュース - e-HAKODATE

    木古内町の国道沿いに、安斎さん制作の雪像が登場。地域の子どもたちを喜ばせようと1998年から続く恒例行事です。今年は「ずんだもん」や「チェイス」など4体のキャラクターが制作され、細部までこだわった出来栄え。夜にはライトアップも実施。展示は2月下旬まで(天候次第)。

    引用元: https://www.ehako.com/news/news2024a/14599_index_msg.shtml

    • お便り投稿フォーム

    (株式会社ずんだもんは架空の登場組織です)

    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250218
    Feb 17 2025
    関連リンク
    • Raspberry Pi + Tailscale + Open WebUI で手軽に自分だけの LLM 環境を構築するチュートリアル

    Raspberry PiでOpen WebUIを動かし、ローカルLLMやAPIを外部から利用する方法を紹介します。Tailscaleを使うことで、自宅外からも安全にアクセスできます。

    1. 準備: Raspberry Pi (4以降推奨)、microSDカード、PCを用意。Raspberry Pi ImagerでOS (Raspberry Pi OS Lite推奨)をmicroSDに書き込み、SSHを有効化。
    2. Tailscale導入: PCとRaspberry PiにTailscaleをインストール。Tailscale SSHを有効化し、PCからRaspberry PiへTailscale経由でSSH接続できることを確認。スマホからの接続も可能。
    3. Open WebUIセットアップ: Raspberry PiにDockerをインストールし、Open WebUIをDockerで実行。Tailscale ServeでHTTPS接続を確立。Open WebUIで管理者アカウントを作成し、必要に応じてOpenAI APIキーなどを設定。

    これで、どこからでもアクセスできる自分だけのLLM環境が完成します。GPUがあれば、ローカルLLMも利用可能です。

    引用元: https://zenn.dev/ikumasudo/articles/18437293cca7c7

    • LangGraphを使ってテックブログレビューエージェントを作ってみた

    Insight EdgeのMatsuzaki氏が、テックブログのレビュー作業を効率化するため、LangGraphを用いたレビューエージェントを開発。記事は、開発の背景、システム構成、レビューの流れ、具体的な実装について解説。特に、レビュー観点の洗い出しから、Agentic Workflowによる処理フローの作成、LangGraphでの実装(ステート定義、ノード追加、エッジ追加など)に焦点を当てている。成果物として、実際のレビューコメント例を紹介。課題はあるものの、表記揺れや構成など、自分では気づきにくい誤りを指摘できることを確認。今後は、出力精度や冗長性の改善、Suggestion機能の利用などを検討し、社内での実運用を目指す。

    引用元: https://techblog.insightedge.jp/entry/techblog_review_agent

    • ChatGPTo3リアルタイム性能変動レポート2025/02/17|ChatGPTリアルタイムモニタリング

    ChatGPT-3の性能をリアルタイムでモニタリングしたレポートです。特定のプロンプトに対する回答を繰り返し生成し、その変動を評価しています。評価項目は、回答の文字数、語彙の多様性(TTR)、プロンプトへの従順さ(命令違反記号の使用頻度、命令違反回答の割合、読点の間隔)、予想推測関連ワードの使用頻度、プロンプトの影響力、学習データの応用頻度(ウマ娘の固有名詞分析)です。過去2週間のトレンドと当日の状態を分析し、安定性や異常値を検出しています。

    引用元: https://note.com/gpt4_forecast/n/n6c7b19821908

    • 「実は…有名アセットのウマの動きはおかしいんだ」ウマが好きすぎるゲーム開発者が指摘する近年ゲームのウマ描写のおかしさ。AAAゲームですらおかしい

    ゲーム開発者が、ゲームでよく使われる馬のアニメーションアセット「Horse Animset Pro(HAP)」の動きが、解剖学的に見ておかしいと指摘。AAAタイトルを含む多くのゲームで、馬の足の動きが不自然だったり、蹄鉄のケアが現実と異なっていたりするとのこと。 開発者は、予算やターゲット層の違いは理解しつつも、アセットの品質向上を期待。

    引用元: https://www.gamespark.jp/article/2025/02/17/149532.html

    • お便り投稿フォーム

    (株式会社ずんだもんは架空の登場組織です)

    Show more Show less
    Less than 1 minute
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250217
    Feb 16 2025
    関連リンク
    • ブラウザ操作AIエージェントの脅威を考えてみる

    LLMを活用したブラウザ操作AIエージェントが登場し、Web操作の自動化が期待される一方、プロンプトインジェクションによるセキュリティリスクが浮上しています。攻撃者がWebサイトに悪意のあるプロンプトを埋め込み、AIエージェントに実行させることで、リダイレクト、ローカルファイルやCookieの窃取、パスワードリセット、GitHubプルリクエストの強制マージなど、様々な攻撃が可能になります。対策として、AIエージェントが参照する情報源の信頼性を検証し、不用意なAPI実行を制限することが重要です。

    引用元: https://zenn.dev/melonattacker/articles/dd7ca650b04bbd

    • GitHub - JosefAlbers/VimLM: VimLM is a Vim plugin that provides an LLM-powered assistant for code editing by allowing users to interact with a local LLM model through Vim commands and automatically ingesting code context.

    VimLMは、Vim上でLLMを活用したコーディング支援を行うプラグインです。特徴は、ローカルLLMモデルを使用し、GitHub Copilotのようにコード補完や提案を受けられる点。コードのコンテキスト(現在のファイル、選択範囲、参照ファイルなど)を深く理解し、対話的なコーディングが可能です。オフライン環境でも利用でき、APIやデータ漏洩の心配もありません。 基本的な使い方として、Ctrl-lでコンテキスト追加、Ctrl-jで会話継続、Ctrl-pでコード置換ができます。また、!includeで外部ファイルを取り込んだり、!deployでコード生成先を指定したりできます。 より複雑な処理は、:VimLMコマンドで実行可能です。

    引用元: https://github.com/JosefAlbers/VimLM

    • Audacity ® Introducing OpenVINO AI effects for Audacity

    AudacityにIntelが開発したOpenVINO AIエフェクトが追加されました。PC上でローカル実行可能です。音声コンテンツ向けには、ノイズ除去と文字起こし機能があります。音楽向けには、音楽生成、スタイル変換、楽器パート分離機能が利用できます。 Windows版がダウンロード可能で、Linuxでのコンパイルも可能です。詳細はGitHubリポジトリを参照してください。

    引用元: https://www.audacityteam.org/blog/openvino-ai-effects/

    • お便り投稿フォーム

    VOICEVOX:春日部つむぎ

    Show more Show less
    Less than 1 minute

What listeners say about 株式会社ずんだもん技術室AI放送局

Average customer ratings

Reviews - Please select the tabs below to change the source of reviews.