本ウェブサイトでは、ユーザーにウェブサイト上のサービスを最適な状態でお届けするためCookieを使用しています。ブラウザの設定(Cookieの無効化等)をそのまま変更せずに閲覧される場合は、弊社ウェブサイト上の全ページでCookieを受信することに同意したものとみなします。詳細は、弊社プライバシーポリシーをご覧ください。
本ウェブサイトでは、ユーザーにウェブサイト上のサービスを最適な状態でお届けするためCookieを使用しています。ブラウザの設定(Cookieの無効化等)をそのまま変更せずに閲覧される場合は、弊社ウェブサイト上の全ページでCookieを受信することに同意したものとみなします。詳細は、弊社プライバシーポリシーをご覧ください。
採用企業 | 楽天グループ |
勤務地 | 東京都 23区 |
雇用形態 | 正社員 |
給与 | 800万円 ~ 1100万円 |
【求人No NJB2312181】
■業務内容
・Spark Hive Kafka GCPなどを用いた大規模バッチパイプラインの構築
・データチェック、分析、レポート支援等のデータ活用プロセス設計
・データ取り込みプロセスの自動化
・オンプレミスからGCPへのクラウド移行推進
・アプリケーション運用・保守、ログ/モニタリング管理
・ビッグデータ特有のストレージ・取得課題の解決と説明
・他部署との連携およびチーム内の技術的リード
<具体的には>
・本番環境におけるデバッグ対応
・チームリーダーとしてのメンバー指導・プロジェクトマネジメント
・Python Spark Kafkaを用いたETL処理の実装と最適化
・GCP(特にBigQuery)を活用した分析環境の整備
職務経験 | 無し |
キャリアレベル | 中途経験者レベル |
英語レベル | ビジネス会話レベル |
日本語レベル | ネイティブ |
最終学歴 | 大学卒: 学士号 |
現在のビザ | 日本での就労許可が必要です |
■必須条件
・Hadoop Spark Kafkaを用いたアプリケーション開発・運用経験
・PythonまたはJava/Scalaによる開発経験
・5年以上のデータエンジニア経験
・GCPやBigQueryの開発・運用経験
・SQLに関する高い知識とRDBの運用経験
・データパイプライン構築・最適化経験
・データモデリング、Linuxでの開発経験
・強力なデータ分析・変換スキル
・チームの技術リード経験
・日本語ビジネスレベル
■要望条件
・ビッグデータ活用、DB運用・チューニング経験
・Docker/Kubernetes、DevOpsの経験
・Microserviceアーキテクチャへの理解
・CI/CD(Jenkins等)導入・運用経験
・Scrum/Agile開発経験
・TOEIC800点以上の英語力
雇用形態 | 正社員 |
給与 | 800万円 ~ 1100万円 |
休日・休暇 | 【有給休暇】初年度 10日 3か月目から 【休日】完全週休二日制 完全週休2日制(土・日)、祝日、夏季・年末年始休暇、慶弔休暇… |
業種 | インターネット・Webサービス |