[データアナリティクス事業本部] 若手Pythonエンジニアとして1年間働いてみました!

[データアナリティクス事業本部] 若手Pythonエンジニアとして1年間働いてみました!

Clock Icon2022.04.05

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

データアナリティクス事業本部 ビジネスソリューション部 ビッグデータチームの鈴木です。

私の所属しているビッグデータチームでは、新しいメンバーを募集しています!

この記事では、これからデータアナリティクス事業本部に興味を持って頂いた方向けに、働き方のイメージを持って頂けるよう、私の働き方や働いてみての感想をご紹介します。

ほかのメンバーの働き方についても、こちらにリンクをまとめておりますのでぜひご覧ください!

はじめに

私は採用ページの「Pythonエンジニア(データアナリティクス事業本部)」という枠で入社しました。この記事は、この職種を想定頂ければと思います。

私は、社会人4年目でクラスメソッドに入社し、2社目になります。数字でわかるクラスメソッド的にはまだ若手を名乗ってもいいかな、くらいの経験の社員です。

もともとはシステムエンジニアとして3年間働いていており、主に社内向けのサービスを開発していました。社外のお客様にご依頼を受けて一緒に開発・運用を進めたり、業務でガッツリ実装していくのは現職が初めてです。

なお、ビッグデータチーム自体の雰囲気や業務はこちらの記事に記載しましたので、本稿ではもう少し私個人の業務や感想を書ければと思います。

私の働き方

業務内容

私は以下のような業務を担当しています。

- システムの要件定義
- データウェアハウス・データレイクの設計・構築
- ETL処理などのアプリケーションの設計/実装
- 開発したアプリケーションの監視やデプロイ方式の設計・開発
- 開発したシステムのドキュメント作成
- ブログ執筆

私の場合、「これから新しくデータ分析基盤を構築するぞ!」という開発が主なプロジェクトと、長く継続させて頂いている運用・改善が主のプロジェクトの両方に関わっています。

ビッグデータチームは受託開発の案件対応が中心ですが、基本的にはお客様からどのようなデータ分析基盤を用意したいのかというご要望を聞くような要件定義フェーズから入るのがほとんどです。お客様から頂いた仕様書を元に決まったものを粛々と開発するようなケースはありません。ご依頼を受けた全期間に渡って、ビッグデータチームのデータ分析基盤構築のノウハウとスキルをご提供しつつ、お客様と一緒に考えながらデータ分析基盤を構築していくことになります。

以下のような、技術動向のチェックや発信にも力を入れています。

  • 各種サービスの新規機能のチェック
  • お客様へのご共有やブログでの発信

技術調査はブログを書いて終わりではなく、調査結果や記事をお客様にも「こんな機能が出たので、このシステムのここの改善に使うと良さそうです」とご共有して改善に役立てることを目標としているメンバーも多く、大きな強みとなっています。

私の場合は受託開発はクラスメソッドが初めてなので、最初は「自社サービスと比べて気持ち的に違うところがあるのかな?」と思っていましたが、どのプロジェクトも年単位で長く継続させて頂くケースが多く、ご要望にあわせて自分たちのノウハウや工夫をたくさんご提供するので、強い思い入れをもって対応させて頂いています。

1日のスケジュール

ある日のスケジュールはこんなかんじです。

08:30:朝ごはんを買いにパン屋さんに散歩
09:00:勤務開始、その日のスケジュール確認、実装
10:30:プロジェクト朝会(ビデオ/音声通話)
11:00:実装つづき、質問(Slack)
12:00:お昼
13:00:ブログ執筆
14:00:プロジェクトミーティング(ビデオ/音声通話)
15:00:設計・仕様書作成
17:00:晩ご飯の食材を買いに外出、料理と食事、さらにはお風呂
20:00:実装つづき
21:00:退勤

クラスメソッドではほぼ全社員がリモートワークで勤務をしており、私も入社してこの一年ずっとリモートワークで勤務をしています。現在はフルフレックスで、もちろん中抜けもできます。

私は夕方に家事がしたいので、長めの中抜けをはさんで少し夜に続きをすることがあります。もちろん、特に差し迫った業務がなければ、そのまま夕方で終わることも普通です。

これらの制度を活かして、以下のように良いパフォーマンスが出せるように工夫して働いています。

  • 朝やお昼休みに、太陽の下をお散歩する。
  • 夕食前に中抜けして食材を買いに行って、自炊する。
  • 週末に疲れが溜まっているときは、少し遅めに仕事を始める。

ビックデータチームのほかのメンバーも、お子さんの送り迎えをしたり一緒にご飯を食べたりするために時間を調整しているのが当たり前で、長い目で見ても働きやすくて良いなと思っています。

ピクルス

せっせと常備菜を作ったりもしています

使っている技術要素

私は以下のような技術要素を使って業務をしています。

  • 言語
    • Python
    • SQL
  • クラウドサービス
    • AWSを中心に使用(Google Cloudを使うケースもあり)

開発言語はPythonが好きでずっと使っています。強いて言うと、boto3を使ってAWSと連携するような処理を書くことが多いです。

クラウドサービスはチームとしてこだわりがあるわけではないものの、現状ビッグデータチームで対応させて頂く場合は、AWS上に基盤を構築するケースが多いです。クラスメソッドにとってAWSに関するノウハウは会社としての強みですが、ビッグデータチームも例外ではなく、AWSの知見・経験が豊富なメンバーが所属しています。

AWSのサービスだと、データレイク・データウェアハウスとしてはS3やRedshiftが多く、LambdaやGlueやStep Functionsなどサーバレスなサービスを使ってデータの格納や加工をコントロールするアーキテクチャを得意としています。

開発した各種アプリケーションは、基本的にAWSのCodeシリーズなどを使って、継続的インテグレーション/継続的デリバリーができるようにこだわっているのも特徴です。アプリケーション以外のリソースも、基本的にCloudFormationなどIaCサービスを使って管理・デプロイするようにしています。

特にAWSのデータ分析系サービスに興味がある方や、効果的な開発・改善の知見をデータ分析基盤で活かしてみたい方はとても面白い環境だと思います。

働いてみての感想

技術好きな上に、親切な方が多い

技術好きな上に、しかも親切な方がすごく多いです。おかげで、技術的な不明点の解決がものすごくはやく・楽になりました。

普段はSlackでのコミュニケーションが多く、部署内の方にはもちろん、別部署の方にも気軽に話かけ、いろんな情報を交換することができます。対面でもうちょっとお話したいときには、雑談タイムを設定してビデオ通話に誘ってもらったりということもあります。

日々の業務で自分の困っていることを書き込んでおくと、いろんな人がアドバイスをくれて、いつの間にか解決していることがよくあります。また、質問用のチャンネルや様々な技術分野のチャンネルも充実しており、そのようなチャンネルに狙って質問することもできます。そもそも、分からないことは実は既にブログに書いてあって、ここに書いてあるよとリンクを教えてもらえることも多いです。

雑談もSlackでフランクに行っています。この間は我が家の電子レンジが壊れてしまって買い替えを考えている話を書いたら、オススメのオーブンレンジを教えてもらえたので、それを買い替えたりしました。

得意を活かせるとより楽しい

得意な分野がある方だとより楽しんで働ける環境だなと思います。

得意といっても、「○○のプロフェッショナル」とかではなく、技術が好きで仕事に打ち込んできた経験の中で「これは得意かも」とか「これは詳しいぞ」みたいなもので大丈夫です。

私の場合だと、上流工程の経験があるので、実装をしつつも、要件や仕様を上手く整理していくようなドキュメント作成もしたりしています。

Pythonエンジニアの業務では、Python・SQL・クラウドサービスの技術が必要になり、採用の際にも試験を設定しています。一方で、ほかの開発言語やシステム開発全般の経験があるなら、やり始めればすぐ伸びるものでもあるので、個人的にはこれらの技術不足を心配して応募を避けて欲しくないなと思っています。

データの利活用やシステム開発に取り組んできた経験の中で自分なりに「これは得意だな」というものがあって、それを活かして自社やお客様に貢献していきたい方であれば、ぜひ検討頂ければと思います。

アウトプットが楽しい

データアナリティクス事業本部のメンバーもDevelopers IOへの記事執筆やAWS認定を中心とした資格取得に取り組んでいます。もちろんブログ執筆や資格取得は業務の一環なので、業務時間に行うことができます。

ブログは初めは書けるのか不安でしたが、入って1年近く経った現在も定期的に書いています。私の場合、ブログネタは日々の業務の中で「この仕組み、こうしたらもっと使いやすくならないかな?」と思ったことをいろいろ検証する中で見つけています。

普通の技術調査だと、チーム内向けに共有して終わりのことが多いと思いますが、ブログに書くことで、ひょっとすると誰かの役になっているかしれないので、もう少し工夫して書いたり、追加で細かいところまで調査したりしてみようかなという気持ちになります。実際、ほかのメンバーから「参考にしたよ!」と言ってもらえることもあり、とても嬉しいです。

認定資格も直接業務に役立つので、積極的に挑戦しているメンバーが多いです。また、現在は受験料補助の制度があります。

AWS認定については、私は入社したときは「AWS Certified Solutions Architect – Associate」だけを取得していましたが、入社して10ヶ月で10個追加で取得しました。自分でも勉強しましたが、業務内でAWSの各サービスをどんどん使うので、業務をこなすうちに幅広く使い方を覚えられたのが大きなアドバンテージでした。

もちろん資格をすぐにたくさん取らないといけないというわけではありませんが、以前は限定的にしかサービスを知らなかったために、ほかのサービスを使えばもっと楽に開発できるところを苦い思いをしたこともあったので、資格勉強を通して体系的に知識を整理できたのはとても有意義でした。その気があれば、会社の制度を使ってどんどんチャレンジできる環境なのはとても良いなと思っています。

最後に

私の仕事の概要や1日の流れを紹介しつつ、働いてみた感想も書いてみました。

「データ分析基盤」と書くと凄そうですが、例えば社内のログや各種データを使い自分で分析環境を作るような活動をされている方はたくさんいらっしゃると思います。そういった方で上記のような働き方や仕事に興味があるという方は、ぜひ気軽に会社説明会などに参加して頂ければと思います! 今はリモート開催ですので、おやつやドリンクを片手に気軽にご参加下さい。

また、もっと突っ込んだ話をじっくり聞いてみたいという方にはカジュアル面談も対応しております。エントリーページのご要望欄に「カジュアル面談希望」と書いてご連絡下さい!

データを扱うことが好きな方で、少しでも興味を持って頂けたら 下記の募集要項から是非お問い合わせ頂ければと思います!

この記事をシェアする

facebook logohatena logotwitter logo

© Classmethod, Inc. All rights reserved.