【外資系生命保険大手】データエンジニア (P2/P3) (Python / SQL / AWS上のデータモデリング)
職務内容
世界最大級の保険会社が、AWSクラウド上でPython/SQL/データモデリングのスキルを持つ優秀なデータエンジニアを募集しています。このポジションはデータエンジニアリング部門で、他のビジネスユニットをサポートします。
業務詳細
- 既存プロセスや新機能の改善を含む、DL機能強化のためのDEアシスト
- バックログレビューミーティング、チームディスカッション、ユーザーとのディスカッションに積極的に参加し、既存のコードを改善するための技術的負債を削減し、アジャイル採用の拡大を視野に入れた開発プロセスの改善を支援する
- 多様なステークホルダー(データチーム、ビジネスチーム、その他のチーム)のデータパイプラインまたはデータ抽出/変換/配信の要求を満たす際に、ビジネスチームに最適なサービスを提供し、データプロビジョニングを管理し、ETL/ETLプロセスを最適化するために、特定のデータドメインエキスパートとなる
- チームや部門を横断して、タスクを達成し、課題を克服するために協力・調整する
- 積極的に自己研鑽を積み、チームのフルメンバーとして自立し、他のDE/SAと協力しながら、最小限の直接的な監督下で業務を遂行できるようになる
【会社概要】
5,000万人以上の顧客から信頼されている世界最大の保険・金融グループの1つです。同社は、個人顧客、中小企業、大企業に対して、損害保険、生命保険、退職金、相続など、生涯を通じた様々な金融保障を提供しています。
【就業時間】
09:00 - 18:00(月~金)在宅勤務、必要に応じて出社
【休日休暇】
完全週休2日制(土日祝休み)、年末年始、年次有給休暇、その他特別休暇など
【待遇・福利厚生】
各種社会保険完備(厚生年金保険、健康保険、労災保険、雇用保険)、 屋内原則禁煙(屋外に喫煙所あり)、 通勤交通費支給など
- 要求され、必要とされる場合、他のプロジェクトを自分の能力を最大限に発揮できるよう支援する
必須スキル
- PythonとSQLを使用したデータパイプラインまたは分析プロジェクトの実務経験
- 以下のAWSサービスのうち、少なくとも3つを使用した強力な知識と実務経験: S3、EMR、ECS/EC2、Lambda、Glue、Athena、- Kinesis/Spark Streaming、Step Functions、CloudWatch、DynamoDB、Aurora
- データ処理およびETLシステム(Spark、Airflow、および/またはAWS Glue、Databricks Workflows、Cloud Composerのようなマネージドクラウドソリューション)での豊富な実務経験
- 様々なフォーマット(JSON、CSV、Parquet、ORCなど)で大量の生データと処理済みデータの両方を扱う能力
- CICDツールとサービス、製品開発、テスト、本番リリースサイクルの経験
- DevOpsツール(Jenkins、GitHub、Ansible、Docker、Kubernetes)の使用経験