
Apple SiliconでAIやっている人に朗報です。vllm-mlxが凄い。 - Qiita
最近インパクトの大きいApple Silicon向けフレームワークが出現しました。「vllm-mlx」です。 一言で言うとvllmライクなインターフェースをApple Silicon向けに提供するもので、MacのGPU(Metal/MPS)アクセラレーションによる...
Loading...
@kos

最近インパクトの大きいApple Silicon向けフレームワークが出現しました。「vllm-mlx」です。 一言で言うとvllmライクなインターフェースをApple Silicon向けに提供するもので、MacのGPU(Metal/MPS)アクセラレーションによる...

Build reliability with SLOs, runbooks and post-mortems. Turn observability into systematic incident response and learning. Practical examples for Kubernetes environments.

はじめに Mac miniで建てたLLMサーバの使い道を色々考えてみた結果、いわゆるエージェントタスクにおける計算資源としての使い方が向いているのではという気がしてきた。イメージはAWS LambdaのようなFunction as a serviceのようなワンショットな...

スマホでコードを書きたい。 電車の中、散歩の途中、ちょっとした待ち時間。PCを開けない場面で、ふとコードのことが気になる。あの関数、あのバグ、あの機能。でもスマホでは記号の入力が絶望的で、実用的ではありません。 私もそう思っていました。 コーディングエージェントとの出会い...

Docstore is Uber's in-house, distributed database built on top of MySQL®. Storing tens of PBs of data and serving tens of millions of requests/second, it is one of the largest database engines at Uber used by microservices from all business verticals. Since its inception in 2020, Docstore users and use cases are growing, and so are the request volume and data footprint. The growing number of demands from business verticals and offerings introduces complex microservices and dependency call graphs. As a result, applications demand low latency, higher performance, and scalability from the database, while simultaneously generating higher workloads.

This is the second blog about the integrated cache infrastructure for Docstore, our online storage at Uber. In the previous blog, we presented CacheFront and outlined its core functionality, design principles, and architecture. In this blog, we share some exciting improvements we’ve implemented since then as we scaled up its footprint by almost 4 times.

株式会社ブレインパッドプロダクトユニットでRtoaster GenAIの開発をしている依田です。 今回はClaude CodeとGitHubを利用した開発についてのお話です。 対象読者 生成AI初心者の方 難しい設定なしでも、大きく開発者体験が向上します。ユーザープロン...


はじめに こんにちは。株式会社アベリオシステムズでエンジニアをやっている、なかざとです 今回、AWS上でRAGを構築する機会がありましたので、簡単ではありますがアウトプットしていきたいと思います。 RAGとは? RAGは、大規模言語モデル(LLM)が外部の最新情報や社内...


プラン作成からコンテキスト管理、ワークフローのカスタマイズ、コードレビューまで、コーディングエージェントとの連携方法を網羅的に解説します。




ソフトウェア開発プラットフォームとして、グローバルで1億8,000万人以上の開発者が利用していると言われるGitHub。その日本法人であるGitHub Japanは2025年11月26日、日本市場における成長戦略と、ソフトウェア構築方法をAIとAIエージェントで再定義する取り組みについて説明会を実施した。AIコーディングアシスタントである「GitHub Copilot」に加え、複数のAIコーディングエージェントを統合するプラットフォーム「GitHub Agent HQ」を展開する同社の取り組みを見ていこう。




今年に入ってから、まだ一度もIDEを開いていない。 仕事はすべてターミナルとGitHub上で完結している。Claude Codeに書かせて、diffを見てレビューする。それで普通にプロダクションの仕事が進んでいる。 ここから見えてきたのは、ソフトウェア開発の重心が確実に動いているという事実だ。 昔は、アイデアからリリースまでの真ん中、つまりコードを書く行為そのものが一番重かった。環境を立ち上げ、IDEを開き、仕様を実装に翻訳する。時間も集中力も、エンジニアの腕前も、ほぼ全部ここに吸われていた。 でも今は違う。エージェントに目的、背景、タスクを渡すだけで、普通に動くコードが出てくる

以下の記事が面白かったので、簡単にまとめました。 ・Gmail is entering the Gemini era 1. はじめに 現在、30億人のユーザーが「Gmail」を利用してコミュニケーションを取り、様々な業務を行っています。スマートリプライからAIによるスパムブロックまで、AIはその大きな役割を果たしてきました。 しかし、Gmailが2004年にリリースされて以来、メールは大きく変化しました。メールの量がかつてないほど増加している今、受信トレイの管理と情報の流れは、メールそのものと同じくらい重要になっています。そこで、GmailをGemini時代へと移行させ、