ハクソク

世界を動かす技術を、日本語で。

HNに聞く: 皆さんは何に取り組んでいますか? (2026年3月)

46日前

概要

  • 現在取り組んでいるプロジェクトや新しいアイデアについての質問への回答
  • 技術ライター視点での作業内容の解説
  • アイデアの発想法や進行中のテーマの紹介
  • 今後の展望や目標の簡潔なまとめ
  • 質問者の参考になる実践的な内容

現在取り組んでいること

  • 技術ドキュメントマニュアルの執筆・編集作業
  • AI技術自動化ツールの最新動向のリサーチ
  • ユーザー体験向上のためのドキュメント構造の最適化
  • 多言語対応アクセシビリティ強化プロジェクト
  • GitHubNotionを活用したナレッジベース構築

新しいアイデア・検討中のテーマ

  • AIを活用したドキュメント自動生成の仕組み
  • APIドキュメントインタラクティブ化による理解度向上
  • 動画チュートリアルテキストガイドの連携方法
  • ユーザー参加型FAQの構築による情報鮮度維持
  • 最新技術(例:LLM、クラウド連携)の導入効果検証

今後の展望

  • 技術ライティング品質基準の策定
  • コミュニティ主導によるドキュメント改善の推進
  • AIアシスタントとの協業による生産性向上
  • 新規分野(例:Web3、IoT)への情報発信拡大
  • 継続的な学習知識アップデート

Hackerたちの意見

2021年の終わりに、ゲーム業界に転職したんだ。『Metropolis 1998』っていうシティビルダーを開発し始めたけど、現代のゲームが提供するものを活かして、ジャンルを新しい方向に進めたいと思ってる。 - 建物の中で何が起こっているかを観察したり、自分でデザインしたりできる(オプション) - 需要をビジネスごとに変えられる - ピクセルアートの3Dレンダリングの美学を復活させる(例: RollerCoaster Tycoon) 最近、Steamページにゲームのスナップショットを更新したよ。ゲームの出来にすごく満足してる!
『Metropolis 1998』めっちゃ美しい!(そして中毒性ありそう!) ネイティブLinux版出す予定ある?それともProtonでテスト済み?Steamページの動画やスクリーンショットを見る限り、すごい量の作業が必要そうだね。全部一人でやってるの?
あなたのツイッターをフォローしてるよ。すごく素晴らしいね。最近デモを試してみたけど、50MB以下(少なくともデモは)って、今の時代には驚きだよ。建物を配置するのに、部屋ごとに建設しなきゃいけなくてちょっと面倒だった。楽しむ人もいると思うけど、それが最終的なゲームの核心部分になるの?
すごく綺麗。でも: > 「家族の両方の大人が車を持つことになる。これは他の交通手段がないため必要で、歩道はオプション。」 これは一時的なものなの?それともこのままリリースする予定なの?SimCityはユークリッド的なゾーニング(工業/住宅/商業ゾーンを分ける)や、駐車場が不要なポケットカーに寄り添って、車中心の街がどれだけ醜いかを正しく示せなかったと思う。簡単なゲームプレイループやバランスを作るためにそうしたんだろうけど、2026年にはもっとリアルで面白いメカニクスを考えられたらいいな。
あなたのバックグラウンドについてもっと教えてくれる?こういうシムを作りたいと思ったことは何度もあるけど、アートスキルがほとんどないから、他の人のリソースを使ったり、グラフィックを作るために誰かを雇わなきゃいけないって学んだんだ。RPGツクールで遊んでた頃は、ストーリーが欠けてるのが問題だった。ゲームを作るとき、いつも一つのコアな要素が欠けてる気がする。どうやってそのギャップを埋めるスキルを身につけたの?
美的感覚がめっちゃ1998年だね。SimCity 2000だけじゃなくて、あまりプレイされてない「A-Train」を思い出す。穏やかな昼夜サイクルがいい感じ。
ちょっと気になるんだけど、前は何をしてたの?方向転換する前は?
ログインして他のコメントに同意するために来たよ。これ、本当にめっちゃ綺麗だね。デモもすぐに試してみるつもり!
私はSim CityやTransport Tycoonで育った世代の一人だよ。これがリリースされたら絶対に試して、懐かしさを感じるけど現代風に楽しむつもり。今すぐウィッシュリストに追加した!リリースに向けて頑張ってね!
新しいアイソメトリックグリッドベースのゲームがもっと必要だよね。リアルさは少ないけど、そこに建物を作るのがめっちゃ満足感ある。前にもコメントしたことがあるよ: https://news.ycombinator.com/item?id=39810716
リリースを楽しみにしてるよ!
YouTrack CLIツールを作ったよ。https://github.com/keithn/yt それと、組み込みのベアメタルデバイス用の言語も作ってるんだ。これには協調マルチタスクが組み込まれてる。多くの組み込みプロジェクトはRTOSを導入して、その複雑さを引き継いじゃうんだよね。ここでのアイデアは、メンタルモデルをシンプルに保つこと。すべての`[]`ブロックは独立して実行されて、各論理行の後に自動的にyieldするんだ。イベント/メッセージングシステムもあるよ。 - ブロックはイベントでトリガーできる: `[>event params ...]` - ブロックは内部でイベントを待つことができる - イベントは割り込みからも注入できる これで、デバイスの状態を監視しながら、組み込みシステムを独立した状態機械としてモデル化するのが簡単になる。今はRustで書かれたインタープリターが主だけど、Cコードも出力できる。まだ構文を試行錯誤中だよ。例: module WaterTank { type Direction = UP|DOWN let direction = UP let current = 0 [>open_valve direction |> direction] [>update level |> current] [ for 0..30 |> iteration { when direction { UP -> !update level=current + 1 |> min(100) DOWN -> !update level=current - 1 |> max(0) } ~ %'{iteration} {current}' } ] [>update level |> when { 0..10 -> %'shallow' 11..15 -> %'good' 16.. -> %'too much!' then !open_valve direction=DOWN } ] }
え、俺がやってることにダウンボートがついてるの?
> 自動的に各論理行のコードの後にyieldすることに、ますます興味が湧いてきた。yieldするコード(コルーチンとか)について、数日前にHNで面白い記事を読んだんだ。もっと詳しく教えてくれない?非同期モデルはどう機能するの?なぜそうなるのか、RTOSのコメントに基づくパフォーマンス保証なの?それとも状態遷移のアイデアに関係してるのかな?各行でyieldすること(例えば、状態遷移ごとではなくて)とどう関連してるのか、全然わからないけど、興味深いから質問がいっぱいあるんだ。もし話すきっかけを探してるなら、これをそのきっかけにして!
AI画像や動画を特定するサブレディットが人気になってから、妻が可愛いAI生成の動画を送ってくれるようになったんだ。年配の家族はAI動画を全然見分けられないし、彼らのAIコンテンツに対するスパイダーマンセンスを鍛えるために、週末のサイドプロジェクトを作ることにした。https://IsThisAI.lol コンテンツはTikTok、Instagram、Facebook、Reddit、他のAI生成プラットフォームから厳選したものだよ。正直、これがどこに向かうのかわからないけど、作りたい衝動があったから、こうして作ったんだ。CloudFlareでアセットの提供を最適化する方法も学んだよ。フィードバック大歓迎!
これ好きだわ。親がWi-Fiの修理が必要なときは、このアプリを5回やらせることにする。
親のテクノロジーリテラシーを育てるのは大事だよね。どうやって教えるかは分からないけど、メディアに対して批判的に考えることが半分の戦いだと思う。これを作ったのは誰か、なんで見せたいのか、これが不可能に見える点はあるか、そもそも関わる価値があるのか、ファクトチェックできるか、みたいな感じ。
これはこれで好きだけど、説明を聞いて期待してたのとはちょっと違ったかな。実際には、ただのリアル/AIの推測ツールで、全然トレーニングにならない。
難しいね!俺もよく間違えることがある。でも、バグがあることに気づいたよ。時々「AI生成」か「リアル」のどちらかをクリックしても何も起こらないことがある。10回クリックしてもダメ。ボタンのイベント処理が壊れてるのかも。編集:あれ、タブを切り替えてこのコメントを書いてたら、戻ったときに正しくクリックしたって表示された。どうやら、選択を受け入れるのに大きな遅延があるみたいだね。
選んだ後にもう一度画像や動画を見られたらいいのに。間違った推測をした後は、いつももう一回見たいと思うんだ。
どうやってその動画がAIかどうかわかるの?多くのものは結構明らかだけど、全てのユーザーがAIのアップロードをちゃんとラベル付けしてるわけじゃないと思う。
すごく楽しいね。動画のコントロールを隠してるのは、ゲームっぽくしたいから?それとも他に理由があるの?
マージナリア検索用のNSFWフィルターを作成中。これまでの流れはこんな感じ:* 検索エンジンのAPIを使っていろんな不道徳をクエリ * qwen3.5を使って検索結果にラベルを付けてトレーニングデータを生成 * fasttextを使って高速モデルを作成しようとする * 理論上は良い結果が出るけど、実際には変な特徴を拾ってしまってひどい結果に * 手動で選んだ入力特徴を使って小さなニューラルネットを実装 * fasttextのトレーニングデータを使ってトレーニング * かなり良い仕事をする * for (;;) モデルを実際のリンクデータベースに適用して、qwenでポジティブな結果にラベルを付けてさらにトレーニングデータを提供 現在のところはこんな感じ。精度:90.90% 真陽性:1021 偽陽性:154 真陰性:2816 偽陰性:230 精度:0.8689 再現率:0.8161 F1:0.8417 あいまいな中間地帯がたくさんあって、偽陽性の多くは単にラベルが間違ってるだけかもしれない。
それは...実際には堕落を隠すためのいいカバーだね ;)
この数週間で、ずっと考えてたアイデアを整理して、2つの投稿を書いたんだ。「エージェント的推論から決定論的スクリプトへ:AIエージェントが繰り返しのタスクで毎回ゼロから推論すべきでない理由と、実行履歴が決定論的自動化にコンパイルできる方法」 https://juanpabloaj.com/2026/03/08/from-agentic-reasoning-to... 「静かなフィルター:認知の侵食が壊滅的なイベントよりも静かで、より可能性の高い文明のリスクである理由」 https://juanpabloaj.com/2026/02/27/the-silent-filter/
サイレントフィルターについて、マクルーハンの名言を思い出すな。「人間は、機械の世界の性器のようになり、植物の世界の蜂のように、新しい形を生み出すためにそれを受精させ、進化させる。機械の世界は、人間の愛に応えて、彼の願望や欲望を迅速に実現し、つまり、彼に富を提供する。」
https://git.sr.ht/~bsprague/schedyou
自分のペットプロジェクト * 自給自足のカスタマーサポートポータル(ちょっと変わったネオブルータリズムのUI) https://github.com/sscarduzio/intreu-portal * 0コピーのシングルバイナリRustバイナリデルタ最適化S3プロキシのGUI付き https://github.com/beshu-tech/deltaglider_proxy
ベースギターのためにソフトウェアツールを作ってる間に、他の人と共有するために何か動画シリーズを作りたいと思ってたんだ。オンラインコースやYouTubeをずっと使ってきたけど、どれも似たような形式になっちゃってる。基本的には教科書をスライドに適応させて、ナレーションを加える感じ。アニメーションになることもあるけど、みんなに合うわけじゃないけど、受動的な学習には好きだな。ウェブ開発者として、動画がこの情報を伝えるのに変な方法だと思ってた。テキストをコピーできないし!動画も作るのが大変で、帯域幅を食うしね。だから、ここ数年いろんなアプローチを試した結果、最終的に「useful」っていう新しいバージョンを始めたんだ。今はrev1の段階だから、まだ初期段階だけどね。 https://github.com/ohmstone/useful/tree/rev-1 いくつか追加したい機能があるけど、まずはベースギターのことに戻りたい。だから、自分のプロジェクトに基づいて、いくつかのウェブサイトを動画として作って、コンセプトを証明してみようと思ってる。usefulのちょっとマニアックな機能はこんな感じ: - 最先端のCPUベースのTTSを使用して、リアルな声のクローンができる - ビジュアルを作るためのシンプルなマークアップ言語 - シンプルなプラグインシステムで拡張可能なスライドコンテンツ - 完全なSEO/SNSメタデータ付きのウェブサイトエクスポート - エクスポートはPWAだから、キャッシュも効いてオフラインでも使える - 自ホスティング可能 - エクスポートは低帯域幅用に最適化されてるから、動画よりもずっと速く読み込めて、データ使用量も1/10以下になる - 最小限の依存関係 自分の使い方以外にも、他の人がコースを作るのに役立つかもしれないと思った。もう一つの目標は、LLMを通じて学んでいることを、こういう低帯域幅のコースに変えることができればいいなと思ってる。そうすれば、同じ質問を繰り返し聞いたり、同じ4K動画を見たりする人が減るから。
https://struktur.sh LLMを使った構造化データ抽出のためのオールインワンツール。$ struktur extract —input doc.pdf —schema schema.json —model openai/gpt-5 - ドキュメントの準備(PDF→テキストなど) - 複数の異なる抽出戦略を実行 - Piエージェントとjust-bash.devを使って、データ抽出のためのフルエージェントループを実行。例えば、大きなファイルをgrepすることもできる。
無料のマークダウンエディタを立ち上げたばかりだよ。現在はIndexedDBだけを使ってストレージしてるから、できるだけプライベートにしてる。生のマークダウンでテーブルを見ると目が疲れちゃって、ローカルでしか使ってなかったんだ。この週末に、他の人にも役立つかもしれないと思った。フィードバックに基づいて、今は手頃なクラウド同期に取り組んでる。目標はできるだけシンプルなUX。URLを開いて、WYSIWYGにドラッグ&ドロップ、サインアップなし、トラッキングなし、面倒なしで -> 読みやすくて編集可能なマークダウン。 https://md-edit.com