75 ~ 95万円/月額想定年収:900 ~ 1140万円
140~180時間
月末締め翌月3営業日支払
業務委託(フリーランス)
麹町
データを用いた意思決定や課題解決に活用するため、各事業/プロダクト/ サービスの全てのデータを一元的に収集/保存/管理するデータ基盤の構築を 担うポジションとなります。 【業務内容】 ・データ基盤の物理/論理データモデル設計/開発/保守運用 ・データ基盤のシステムアーキテクチャの設計 ・データパイプライン (ETL) の設計/開発/保守運用
・エンジニアリング ①GCPやAWSなどの主なクラウドサービスにおける開発経験 ②DWHや業務系などのデータベースの設計/開発/運用経験 ③データパイプライン (ETL) の設計/開発/運用経験 ④基本技術情報試験レベルのコンピューターサイエンスの知識 ・データ専門性 ①SQLを記述する事が出来る (数十行位) ②基礎集計を通じてデータの全体像や質を確認することができる ・ビジネス ①事業会社における情報システム企画の経験 (どんなシステムがどんな処理をどんな順番で実施するかの要件定義レベル) ②論理的思考力 (定量思考力、要約力、仮説構築能力など) ③ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来るか) ④プロジェクトマネジメント能力 (完了定義。スコープ策定。制約を考慮した優先度決定。タスク洗い出し)
・エンジニアリング ①Web系エンジニアとしての実務経験 ・データ専門性 ①データサイエンス (統計や機械学習) 領域の基礎的な知識をお持ちである ②DMBOK (Data Management Body of Knowledge) もしくは、 DMM (Data Management Maturity Model) に基づくデータマネジメントの 知識や、これらの取り組みのご経験をお持ちである ・ビジネス ①ビジネス部門やステークホルダとの調整業務を主体的に進める事が出来る ②メタデータ定義やデータ品質のマネジメントに関して企画立案や施策実施をされたご経験 (インパクトの規模は問わない) ③自ら企画や施策を立案し成功させた経験 (インパクトの規模は問わない)
・インフラ:GCP (データ基盤) / AWS (関連システム) ・データパイプライン (ETL):CloudComposer (Airflow) ・DWH:BigQuery ・その他インフラ管理:Docker / GKE / GAE / CloudRun ・可視化ツール:Google Data Portal / Tableau ・分析環境:Jupyter Notebook / Google Colab / Google Cloud ML ・その他:GitHub / Slack / Notion
1回
【選考方法】 ※面談回数につきましては、案件や面談内容によって異なる可能性がございます。 必要に応じて複数回設定させて頂く場合もあります。 【案件の特徴、学べること】 ・今後ニーズが高まっていくと予想されるデータエンジニアリング領域において、 データガバナンス・システムアーキテクチャ・データモデルの 検討及び設計の段階から、 実際の実装と運用まで全てのレイヤでご活躍いただくことが可能となります。 ・スキルの高いエンジニア (データエンジニア、機械学習エンジニア) と データ分析者 (データサイエンティスト) が既にチームに在籍しており、 高度なデータ活用に向けたコラボレーションの環境が整備されています。 ・社会人教育における大学院/教育サービス機関であるため、 ユニークなデータが取得/利用可能となっています。 ・社会人教育におけるDX推進にあわせ、様々なデータ活用の提案が実施出来ます。 ・データエンジニアとして経験を積みつつ、データエンジニアリングのご知見を更に 高めていただいた後は、データ基盤およびデータマネジメントに関する取り組みの 全体をリードしていただけることを期待しています。 【その他】 ・常駐 or リモートどちらも可能性がございます。 ・月の平均残業時間は10時間程度となります。 ※手を動かす事が出来ない方 (コンサルやプロジェクトマネジメントのみ) は、 選考対象外となりますので、予めご了承下さい。
情報提供元: techtree(テックツリー)
2年以上前
77~112万円/月額想定年収:924~1344万円
業務委託(フリーランス)
・東京メトロ日比谷線・都...
77~112万円/月額想定年収:924~1344万円
業務委託(フリーランス)
・東京メトロ日比谷線・都...
SNSアカウントでログイン