
ワイは都内在住の30代、現役のAIエンジニアや。
普段は某IT企業で自然言語処理(NLP)を中心に、文書要約や情報抽出のモデルを開発してる。
仕事はおもろいけど、会社の枠だけで生きるのはもったいない気がしてて、副業で自分のスキルを試すのが趣味みたいになってる。
ある日、大学院時代の先輩から「研究室で論文レビューが地獄やねん。
要約と参考文献の抽出を自動化できへん?」ってLINEが来た。話を聞いてみると、毎週のゼミで学生が大量の英語論文を読まなあかんらしく、要約と関連文献の整理に時間がかかりすぎてるらしい。
「簡単なツールでええから、論文を放り込んだら要約と参考文献を抽出してくれるやつ作ってほしい。予算は10万円。納期は2週間でどう?」
ワイは即答した。「やるわ」
先輩の研究室は情報系で、AIやデータマイニングの論文を中心に扱ってる。 学生は英語論文を読んでレビューを書くんやけど、要約と参考文献の整理に時間がかかる。 特に、参考文献の中から「関連性が高いもの」を見つけるのが面倒らしい。 要件はこんな感じや PDFの英語論文をアップロードすると、要約を生成 論文内の参考文献リストから、関連性の高い文献を抽出 出力はMarkdown形式で、ゼミ資料に貼りやすいように Webブラウザで動く簡単なUI付き 学生が使えるように、技術的な知識は不要 ワイは「これはPDF解析+LLM+ベクトル検索でいけるな」と判断。 まずはPDFの解析。PyMuPDFを使って、本文と参考文献セクションを抽出。 参考文献は構造がバラバラやから、正規表現でタイトル・著者・年を抽出するようにした。 要約はGPT-4 APIを使って、本文のセクションごとに分割してプロンプトに投げる。 長すぎるとトークン制限に引っかかるから、セクションごとに要約して最後に統合する方式にした。 参考文献の抽出は、本文のEmbeddingと参考文献タイトルのEmbeddingを比較して、類似度が高いものを上位5件抽出するようにした。 これで「本文と関連性が高い文献」が自動でピックアップできる。 UIはStreamlitで構築。PDFをアップロード→要約と参考文献抽出→Markdownで表示、という流れ。 学生が使いやすいように、ボタンは大きめ、説明文も日本語で丁寧に書いた。 作業は全部自宅でやった。
平日は仕事終わってから、夜に2〜3時間。週末は朝からコーヒー飲みながらがっつり。 PDF解析は地味に面倒やったけど、NLPの知識が活きたわ。 嫁には「またパソコンばっかりやな」って言われたけど、ワイは「これで10万やからな」とニヤけてた。 副業って、報酬も嬉しいけど、自分のスキルが誰かの役に立つって実感できるのがええんよな。 途中、先輩から「Markdownだけやなくて、Word形式でも出力できると助かる」って要望が来た。 せやから、python-docxを使ってWordファイルも生成できるようにした。 これが意外と好評で、学生から「レポート作成がめっちゃ楽になった」って感謝された。 納期の2日前にGitHubでコードとREADMEを納品。 Streamlitのデモ環境もHerokuに立てて、研究室の学生に触ってもらったら、「これ、神ツールやん!」って大絶賛。 即日で報酬の10万円が振り込まれた。ワイ、通帳見てまたニヤけたわ。 副業で稼いだ10万円。しかも、自分の得意分野で。これはほんまに嬉しかった。 この案件がきっかけで、「論文レビュー補助ツール」っていう肩書きをつけて、他の研究室にも営業してみた。 今では月に1〜2件、論文要約や文献抽出のツール開発を受けてる。教育系、医療系、心理学系の研究室からも依頼が来るようになった。 副業を通じて、ワイは「会社の外でも通用するスキル」を実感できた。 収入も増えたし、自信もついた。何より、自分の技術が誰かの“学び”を支えるって、めっちゃやりがいある。 というわけで、論文レビュー補助ツールでワイが10万円稼いだ話や。 もし同じように副業考えてるAIエンジニアがおったら、教育支援は狙い目やで。 論文の要約や文献整理は、AIが得意とする分野やし、ニーズも高い。ワイみたいに、自宅で稼げるチャンスはゴロゴロ転がってる。あとは、拾うかどうかや。 さて、次はどんな研究室から依頼が来るんやろな。楽しみや。案件の概要
設計と実装
自宅での作業
納品と報酬
副業のその後
アニメ・漫画の登場人物やゲームキャラクターの現在の年齢まとめ
X(旧Twitter)やYouTube、TikTok、SNSで話題の猫(ネコ、ねこ)情報まとめ
犬(ワンちゃん)を飼っている意外な有名人・タレント・芸人・インフルエンサー・YouTuberまとめ
TikTokで人気急上昇のTikToker(ティックトッカー)情報まとめ
スポンサーリンク
