[登壇レポート] コスト最適重視でAurora PostgreSQLのログ分析基盤を作ってみた #jawsug_tokyo

[登壇レポート] コスト最適重視でAurora PostgreSQLのログ分析基盤を作ってみた #jawsug_tokyo

ログ取得の目的と、重要視する評価軸を定めよう
Clock Icon2025.04.24

コスト重視でログ運用したい

こんにちは、のんピ(@non____97)です。

皆さんはコスト重視でログ運用したいと思ったことはありますか? 私はあります。

そちらの問題解決アプローチの整理として、2025/4/23のJAWS-UG東京 Presents 400にて、「コスト最適重視でAurora PostgreSQLのログ分析基盤を作ってみた」というタイトルで登壇をしてきました。

登壇資料

使用したコード

Aurora PostgreSQLのログをS3バケットに出力する処理

https://github.com/non-97/aurora-postgresql-log-archive/tree/v1.1.0

S3バケットに出力されたAurora PostgreSQLのログをパースし、Parquet形式に変換する処理

https://github.com/non-97/etl-psql-log

ログ取得の目的と、重要視する評価軸を定めよう

コスト最優先でAurora PostgreSQLのログ分析基盤を作ってみました。

ちなみに今回は行いませんでしたが、特定のログメッセージで通知させたい場合は*/error/*/postgresql.log.*.parquetなど特定のログ種別に対してトリガーするようなEventBridge Ruleを用意し、DuckDBでそのログメッセージを検索するLambda関数をキックするようにすれば簡単に実装できると思います。

ログを出力させる場合は、ログ取得の目的と、重要視する評価軸を定め、合意することが重要です。これが定まっていないとやるべきタスクの方向性の整理やメンバーや意思決定者間の調整難易度が上がってしまいます。

ログ出力は具体的な運用を考えずに「とりあえず」で決めてしまいがちです。そして、「とりあえず」で決めたことは結局その後そのままになってしまうものです。どうしても「とりあえず」で始めるなら、せめて、いつ正式な判断をするのかを合意しておきましょう。

また、Auroraから直接S3やData Firehoseに出力する処理はマネージドでできるに越したことはないですよね。、同じ課題を抱えている方は、ぜひAWSにフィードバックをしてユーザーの声を届けましょう。

この記事が誰かの助けになれば幸いです。

以上、クラウド事業本部 コンサルティング部の のんピ(@non____97)でした!

参考情報

Aurora

PostgreSQL

Athena

ETL全般

DuckDB

ログストレージの料金

その他

Share this article

facebook logohatena logotwitter logo

© Classmethod, Inc. All rights reserved.