気になるリストに追加しました
必須条件 |
■次の一般的なソフトウェアエンジニアとしての知識・スキル・経験を持っていること ・WebApp開発の知識、スキル - 一般的なWebアプリケーションの大まかな構成を理解していること - 人工知能アプリケーションの開発経験(設計及び実装)(Sr.バックエンドエンジニアレベルであると尚可) ・フルタイムの業務経験最低2年以上 ■機械学習、検索、推薦、自然言語処理、画像処理等、高度なアルゴリズムのいずれかをコアコンポーネントとするソフトウェア開発プロジェクトに携わり、継続的に改善した経験 ・例: ECにおける商品推薦、UGCテキストや画像の分類問題、Elasticsearch/Solrを用いた検索システムの結果改善をはじめとした運用 ・コンポーネント自体はマネージドサービスでも可能 ■ビジネス/エンジニアとのコミュニケーション力 ・アウトカムをプロダクトマネージャや分析者と共に議論し定義でき、機械学習タスクとして要件に落とし込む ・ 複雑な要件を整理し、適切なステークホルダーを巻き込んで合意形成できる ■英語ビジネスレベル以上 ・ゲストマッチグループの英語話者ステークホルダーとのコミュニケーションや英語によるデータ収集が可能なレベル、もしくはそこまでキャッチアップ可能であること ・担当領域に関して、物事を前に進めるためのあらゆることを実践できる方 ・経営陣、法務、プライバシー保護担当等のプロジェクトチーム外のステークホルダーとのコミュニケーションを必要に応じて行える方 ・自身の仕事の価値を理解してやりきれる力がある方 ・最新技術を常にキャッチアップし、必要に応じてプロダクトに導入できる方 ・あるべき理想を持ちながら、現実問題に落とし込んでギャップを埋める議論ができる方 |
||
---|---|---|---|
想定年収 |
700~1,200万円 |
||
募集職種 | |||
最寄り駅 |
赤羽橋駅 (東京都) |
||
会社概要 |
<業務詳細> 機械学習エンジニアとして、推薦や検索、自然言語処理や画像処理とその結果がシステムの中心となるプロジェクトに携わり、プロダクトチームが正しくそれらが提供する結果を利用し継続的にプロダクト指標を改善できるような状態に導くこと。 <具体的な仕事内容> ■仕事の進め方 ・ハンズオンで概念実証、プロトタイプを作成し、プロジェクト内外の理解を深めることで説明責任を果たしながら成功確率を高める。 ・性能(精度、UX に影響する処理速度等)、コスト、リードタイムなどのトレードオフしながら機械学習コンポーネントを含むシステムの技術選定、設計、実装を行う。 ・専用の情報共有ツールを使用して、ノウハウや業務などの情報共有を行います。 【仕事の特色】 <企業の魅力> 株式会社エウレカでは、現在、累計会員数2,000万人を突破した恋活・婚活マッチングサービス「Pairs」を展開しています。 これらのブランドの提供・拡大を通じてデーティングや婚活領域などのライフステージ領域でのリーダーシップを高めて、ミッションである “人生に「あってよかった」と思ってもらえるものを” の実現を目指しています。 また、「Pairs」は収益面でもすでにワールドクラスのプロダクトへと成長していますが、日本国内でもアジアでもまだまだ大きなポテンシャルがあります。 直近のフォーカスは更なる成長を続ける日本市場ですが、すでに展開済みの台湾などアジア市場での更なる拡大もスコープになる可能性があります。 <ポジションの魅力> ■仕事から得られるもの ・最大級のオンラインデーティングサービスのデータを用いた機械学習を含む機能開発に企画段階からプロダクトチームと共に関わり、最適解を実現する為の過程で得られる知識とテクニカルスキル ・エウレカでは技術選択は全て開発者が責任を持って行っており、必要に応じて最新技術も積極的に活用できます ・サービスマインドの高いメンバーが多く、あるべき姿を議論しながら、調整力、コミュニケーションスキル、解決力を磨くことができます ・定性・定量のバランスを持った高度で本質的なデータ・ドリブン組織の推進・実務経験 ・外資系IT企業ならではの論理性、圧倒的スピードのある開発経験 ・英語力(業務上必須ではありませんが、親会社や外国籍メンバーとのコミュニケーションのため英会話学習をサポート。また、社内メンバーの国籍は、台湾・韓国・フィリピン・オーストラリア・イギリス・アメリカ・フランスと多種多様です) ・開発を通した社会貢献(晩婚化問題、少子化問題、人生における自由な選択etc.) <開発環境> ■使っているツール/環境 ・開発言語:Python, Go ・データベース:BigQuery, MySQL(AWS Aurora), DynamoDB, Redis, ElasticSearch ・データ処理:Google Cloud Vertex AI, Fivetran, Google Cloud Dataflow, Cloud PubSub, Fluentd, Fluent-Bit, dbt, dagster etc ・BIツール:Tableau, redash ・構成管理:Terraform ・開発、その他:Github, Slack, JIRA, monday.com ・G Suite 各種ツール:Google SpreadSheet / Google Slide ・インフラ:GCP/AWS各種サービス, Kubernetes |
必須条件 |
・SQLを用いたデータ加工、データ分析の実務経験 ・データ分析を元に、ビジネス課題やプロダクトの改善を行なった経験 ・周りの人を巻き込めるオーナーシップスキル、コミュニケーションスキル ・データ分析結果からアクションプランを積極的に提案できる方 ・当事者意識をもち自発的に行動にうつせる方 |
||
---|---|---|---|
想定年収 |
700~1,200万円 |
||
募集職種 | |||
最寄り駅 |
六本木一丁目駅 (東京都) |
||
会社概要 |
【仕事概要】 RENOSYマーケットプレイス事業を中心に、国内外のグループ会社含めた事業でデータに基づいた意思決定支援をします。 - 事業KPI策定と可視化 - データ分析に基づく事業課題の解決策立案 - 事業現場へのデータ活用指導と分析環境整備 - ビジネスクリティカルな予測モデル・アルゴリズムの要件定義、設計 【仕事の特色】 【やりがい】 - データアナリストとして事業の意思決定に関わります。自身のアウトプットが事業方針に大きく影響する実感が得やすい環境です。 - M&Aや新規事業立ち上げが積極的にされているため、事業1人目のデータアナリストとして裁量を持って事業推進する機会があります。 - CDO直下の組織のため、裁量も大きく、スピーディーな意思決定のもと、様々な技術的なチャレンジもできます。 - 個人としてのパフォーマンスはもちろん、技術と視座のレベルが高いメンバーが集まって生まれる成果を重視しています。データ分析基盤整備やドキュメント整備など、チーム貢献する行動が推奨されています。 【分析環境】 インフラ:AWS(MySQL,Postgres) 分析基盤:Snowflake, trocco, dbt, TreasureData 分析ツール:Tableau, Google Spreadsheet, Google Analytics 4 その他:Slack, Confluence, G Suite,KARTE |
必須条件 |
<経験、スキル> データ活用を目的とした、ビジネスクリティカルなシステムの 設計・構築・運用・パフォーマンス改善(2年以上) ※技術選定段階から取り組んだ実績があればなお可 ーデータモデリング業務経験 ーETL処理の設計・開発・運用 ーデータインジェストからデータトランスフォームまでの設計・開発・運用 (Airflow/digdagなどの活用、運用効率化) ーReverseETL処理の設計・開発・運用 ービジネスユーザーのシステム活用支援 (BIツールの導入なども含む) <仕事のマインド> ・他人の視点に立って、他人が理解しやすい/活用しやすいアウトプットを出すことができる方 ・当事者意識をもち自発的に行動にうつせる方 |
||
---|---|---|---|
想定年収 |
700~1,200万円 |
||
募集職種 | |||
最寄り駅 |
六本木一丁目駅 (東京都) |
||
会社概要 |
RENOSYマーケットプレイス事業を中心に、国内外のグループ会社含めたデータマネジメント業務を行います。 ・データ基盤の開発 ・事業フェーズに応じた適切なSLO設定と監視・運用 ・データ分析/マネジメントツールの導入によるデータ利用・管理の効率化 ・データガバナンスを維持するための活動(PII管理、セキュリティ、...) ツール選定や技術的なチャレンジについては裁量が与えられ、非連続に成長していく事業を支えるデータマネジメント活動を積極的に応援します。 ■やりがい ・事業が急拡大している中でデータマネジメントの重要性が増しており、ご自身の活動が事業の成長に直結していく環境で働いていただけます ・データを利活用するメンバーがBI/AI領域にたくさんいるため、多様な出口のあるデータ基盤運用を経験できます ・サービス領域が海外やM&Aにも及ぶため、国内不動産に限らないデータの取扱について経験できます ・CDO直下の組織のため、裁量も大きく、スピーディーな意思決定のもと、様々な技術的なチャレンジもできます 【仕事の特色】 【事業について・採用背景】 弊社は「テクノロジー × イノベーションで驚きと感動を生み、世界を前進させる。」を理念に掲げ、不動産ドメインを中心に、多くの人々が安心や利便性を感じられるサービスの提供を目指しています。 事業としては、不動産売買を中心とした「RENOSYマーケットプレイス事業」、不動産の業務プロセスに特化したSaaS提供を行う「ITANDI事業」を主軸として、M&A事業、海外不動産事業、など様々な領域に積極的に拡大を続けています。今後は、データやテクノロジーを活用することで不動産売買をより安心・簡単・最適にし、グローバル市場を見越した成長を目指しています。 不動産は、巨大な産業規模に対してまだデジタル化が進んでいない領域です。物件や顧客接点のデータが適切に整備・管理されることで、プラットフォーム上で生まれるデータ活用の出口はたくさんあります。私たちは、経営レベルでデータ戦略を重要視しており、中でもデータマネジメント機能をその中心に据えています。 多種多様な不動産データが集まり、業界でもユニークなポジションが作られているこのタイミングで、不動産業界を変革しグローバルな事業拡大に参画いただけるデータエンジニアを募集します。 <開発環境> インフラ:AWS(MySQL,Postgres) 分析基盤:Snowflake, trocco, dbt, TreasureData 分析ツール:Tableau, Google Spreadsheet, Google Analytics 4 その他:Slack, Confluence, G Suite,KARTE ====エンジニア向け支援制度==== ・PC、デュアルディスプレイなど、快適に働くための備品を提供します ・社員の自己研鑽を支援するために、書籍購入費用や外部セミナー参加費用などを一部会社負担 ・育児や介護を行うための在宅勤務可能 |
必須条件 |
・パブリッククラウドによる商用インフラ構築・運用経験(3年以上) ・Python、Java、Scala等のプログラミング経験(1年以上) ・基本的なSQL(DML)の使い方を理解していること ・システム構築におけるクライアント相対のご経験 ※ データ基盤構築やデータマネジメント経験は必須ではありません。 ・未経験分野でも貪欲に吸収しようとする学習意欲のある方 ・他メンバやクライアントなど業務に応じて必要な相手とコミュニケーションを意欲的に取りながら、チームとして動いて行ける方 ・ものごとを体系的に整理し、筋道を立てて考え、課題を解決する力を持つ方 |
||
---|---|---|---|
想定年収 |
670~1,170万円 |
||
募集職種 | |||
最寄り駅 |
渋谷駅 (東京都) |
||
会社概要 |
<業務詳細> 分析者やソリューション開発者が利用するデータ基盤を構築するエンジニアとしてご活躍いただきます。 <具体的な仕事内容> ※これまでのご経歴や経験に基づき、以下のいずれかの業務をリーダーとしてご担当頂きます。 ・データ分析基盤及びデータ処理・連携システムの要件定義/設計/開発/運用(案件のフェーズは踏まえつつも、希望に沿う形で様々な工程をご担当いただきます) ・顧客企業の課題を解決するためのソリューションコンセプトやシステムブループリントの検討 ・アジャイル開発/ウォーターフォール開発におけるプロジェクト推進 ・顧客との折衝/リレーションの確立 【仕事の特色】 <開発環境> 実務をこなしながら下記のような技術スタックに触れる機会があります ・クラウド:AWS(Redshift, EMR, EKSなど)、GCP(BigQuery, Composerなど)、Salesforce ・SaaS:Snowflake、Databricks ・ライブラリ・ツール:Tableau、Hadoop/Spark(大規模データ分散処理)、Airflow、Terraform、Docker/kubernetes ・言語:Python、SQL <具体案件事例> ■分析基盤構築 KDDIの約4,000万人規模のお客様から得られるテラバイト級のデータをもとに、分析や機械学習によって示唆を出し、業務改善、マーケティング等に活用するための基盤構築。 ・利用者:ARISE社内分析者、KDDIのマーケティング施策担当/分析担当など ■アクセスログ収集基盤構築 KDDIの各種サービスにおけるテラバイト級のアクセスログをニアリアルタイムで収集、蓄積、加工し、分析・BI・他システムへ連携する基盤構築。 ・利用者:KDDIのマーケティング施策担当/分析担当など ■配信基盤構築 KDDIのお客様に対して、個々のニーズに合わせつつ、大量配信を実現するマーケティングオートメーション基盤の構築。 ・利用者:KDDIのマーケティング施策担当など |
必須条件 |
※すべて必須 ・バックエンドエンジニア、インフラエンジニア、データエンジニアいずれかにて、データエンジニアリング経験3年以上 ・データ分析基盤の構築や運用、ダッシュボードの作成などのデータ分析に関する業務経験 ・実業務でのSQLの利用経験 ・社内もしくは社外のステークホルダーと要件や仕様を折衝した経験 ・顧客のサクセスに対して真剣に取り組むことができる ・明確に答えがないドメインでも自分で仮説を立てて主体的に進めることができる ・ロジカルに考え表現できる ・手法に捉われずに、課題ベースで解決策を考えられる ・立場の違う様々な人と協力しながらプロジェクトを遂行できる |
||
---|---|---|---|
想定年収 |
629~929万円 |
||
募集職種 | |||
最寄り駅 |
青山一丁目駅 (東京都) |
||
会社概要 |
AI SaaS「Anews」に関する社内のデータ活用をエンジニアリング面で実現していただける方を募集します。データ計測の設計からデータ基盤の運用、ETLの運用、効率化のためのデータウェアハウス・データマートの開発、実際の利用シーンでのデータ活用の支援まで一連の流れをより精度高く、効率的な運用を実現していただきます。 Anewsの特徴としては、「情報」を主軸としたサービスでデータ構造が比較的シンプルなため、データ基盤も比較的シンプルな構成になっています。そのため、大規模なデータパイプラインを開発して高度な基盤を構築するというよりは、保持しているデータを素早く柔軟に活用することに重点を置いた業務内容になります。 ■具体的な業務内容 ・社内のデータ分析・データ活用の支援 ・SQLやダッシュボードの作成 ・データを活用した社内ツールの開発・運用 ・ETL(trocco)の運用 ・ユーザー行動ログの計測設計 ・データ分析基盤(BigQuery)やBIツール(Redash)の運用 ・データウェアハウス・データマートの開発 ・新機能の研究開発に対するデータ面での支援 【仕事の特色】 【会社概要】 ストックマーク株式会社は「価値創造の仕組みを再発明し、人類を前進させる」をミッションに掲げ、最先端の生成AI技術を活用し、多くの企業の企業変革を支援しています。 社内外の情報をワンストップで検索できる「Anews」及び、あらゆるデータを構造化し企業の資産に変える「SAT(Stockmark A Technology)」を運営しています。さらに、企業特化生成AIの開発や、独自システムの構築も支援しています。 現在のメインターゲットは国内大手の製造業R&Dであり、すでに日経225の30%、250社を超える企業様での導入が進んでいます。今後は製造業のR&Dを起点に、国内のエンタープライズ企業、そして日本企業全体、さらにはグローバル企業にも展開していく予定です。 また、日本語及びビジネス領域に強い純国産LLMの開発研究にも注力しており、2024年5月に1000億パラメーターの自社LLMを公開いたしました! 2024年10月にはシリーズDにて45億円、累計88億円の資金調達を完了。 従業員も100名を超え、更なる成長を目指すために人員を募集しております! 【現状の課題】 Data Intelligence Unitはは2023年5月に設立後社内のデータ活用を推進しており、現時点で定常的にデータ活用が行われる状態を実現できています。 しかし、データ活用が盛んに行われるようになった結果、よりデータの正確さやデータ活用の効率性が求められるようになっています。そのためにはエンジニアリングの専門性が必要ですが、現在はリーダーとアナリスト1名で状況に応じてエンジニアリング業務を分担しており、十分に対応できていない状態です。 そのために安定した基盤をエンジニアリング面から作っていただける方を募集します。 【チーム構成】 Data Intelignece Unit リーダー1名、データアナリスト2名 【開発環境】 ・BIツール:Redash, Googleスプレッドシート ・データ分析基盤:BigQuery ・ETLツール:trocco ・ドキュメントツール:Notion ・コミュニケーションツール:Slack ・生成AI:Azure Open AI Service,自社開発LLM ・行動分析:Wicle 【ポジションの魅力】 ・日本企業におけるイノベーション創出をデータ面で実現するという、社会貢献性高くチャレンジングなテーマに取り組める ・経験豊富なデータアナリストと2人3脚でデータ活用を推進できる 【関連資料】 ・ビジネス情報収集のAI化という未知の冒険を支えるデータ組織 https://stockmark-tech.hatenablog.com/entry/2023/11/10/090000 ・Stockmark 採用ポータル https://stockmark.wraptas.site/ |
必須条件 |
・顧客のデータ利活用におけるコンサルティングもしくはデータ分析PoCのプロジェクトリードの経験 ・データ分析や機械学習の幅広い知識と経験 ・カスタマーファースト思考の方 ・AIベンダーとして当社の知名度を上げていくことに取り組んでいただける方 ・顧客や開発チームを巻き込んで、より良い提案を実現できる方 ・研究開発から設計まで、AI活用の知識・経験を積んで成長したい方 ・様々なデータが扱える環境で分析したい方 ・様々な業界の経験を積みたい方 ・新技術のキャッチアップ意欲が高い方 |
||
---|---|---|---|
想定年収 |
610~1,250万円 |
||
募集職種 | |||
最寄り駅 |
品川駅 (東京都) |
||
会社概要 |
【業務概要】 主に全国の顧客(製造業)から要望があるAI活用の課題に対し、提案~分析のリードをお任せします。 当社のデータサイエンティストと共に、デジタル技術や先進手法を用いて、顧客データの利活用や分析手法の検討を行っていただき、そのマネジメントも担っていただきます。 製造業におけるAI/データサイエンス事業を行っている当社の先端技術センターにて、AI導入支援/企画、PoC/フィジビリティ検証、AIを推進するための組織づくりコンサルティングやAIの人材育成などクライアントのAI取り組みレベルに応じた様々なサービスメニューの提供に携わっていただきます。 ■案件事例 ・半導体設計・評価における多目的最適化の論文調査 ・電気自動車の電池性能向上の要因分析 ・自動車部品インバータ回路基板の品質検査 ・自動運転向け画像認識技術 ・航空機の飛行経路/飛行時間のばらつき要因分析 ・XAIによる機械学習モデル解釈支援など 【仕事の特色】 【募集背景】 ディスラプターの登場によって、各業界のビジネス環境は劇的な変化を遂げています。 いかに時代に適応したビジネスモデルを創造し、マーケットで勝ち抜いていくかが主題となっている状況下であるからこそ、当社では、顧客基盤である「製造業」をメインに“コンサルティング”から“AIモデル構築”、”AIシステム開発”まで一貫して行うことができる、独自のポジションを築いております。 今回は顧客のデータ利活用構想と我々の持つAIテクノロジーを結び、顧客の課題解決を先頭に立って進めるDXコンサルタントを募集します。 【部門カルチャー】 ボトムアップでメンバーそれぞれが主体的に動きやすく、また互いの意見を尊重し、上司に対しても何でも話せる環境です。 技術交流会なども活発に行っています。 【やりがい】 白紙の段階から構想をもとに要件設定ができます。 プロセスが自由なため、様々な技術を試せる環境で働くことができます。 困ったことがあれば相談しながら進めることで、各々の技術力の成長ができる環境です。 【キャリアイメージ】 業界の先端に携われます。 PMOやセンター長、統括部長として事業経営に資する事ができます。 【組織構成・開発事例】 ■先端技術センター(全体70名) ・DXコンサルタント:7名、シニアアナリスト:25名、アナリスト:38名 ※開発は規模により2~5名のチームで構成されています 【開発環境】 Linux / Windows Python/SQL AWS / GCP / Azure / Docker / kubernetes Hadoop / Jupyter Notebook/ TensorFlow / PyTorch/ Kubeflow Redmine等 |
必須条件 |
・データ分析によるビジネス課題創出と打ち手検討経験 ・課題創出から分析要件設計、分析実務、結果プレゼンテーションまでを独力で遂行した経験 ・SQLを用いた分析データ抽出・前処理・集計 の業務経験 ・ビジネス ✕ お客様志向をもてる方 ・データ分析のみならず、ビジネス全般に関心を持ち、積極的に情報収集するなど率先して課題を自分ごと化できる方 ・分析結果や検討した改善策や打ち手を、分析依頼者や関係者の目線で言語化し、事業関係者へ説明できる方 ・新しい技術やトレンドのキャッチアップなど、学習意欲が高い方 |
||
---|---|---|---|
想定年収 |
606~1,200万円 |
||
募集職種 | |||
最寄り駅 |
新日本橋駅 (東京都) |
||
会社概要 |
お客様やビジネス部門の課題を発見、理解し、打ち手のための分析をプロジェクト等を通してビジネス部門のメンバーと共に推進していただきます。 本ポジションには、データ分析のスキルだけでなく、コミュニケーションやプロジェクト管理スキル、プレゼンテーションをはじめとした表現能力も必要です。 データ分析のみならず、ビジネス全般への関心を持ち、自ら率先して情報収集し、ビジネス部門の一員として業績向上に直接貢献したいという想いある方を求めています。 <具体的な業務内容> ■事業課題定義&アクション策定 ・ビジネス部門とのコミュニケーションを通じた与件、課題整理 ・データ分析の目的や仮説の整理・定義 ・分析に必要なデータ取得の企画・設計(仕組みづくり) ■データ分析&打ち手の検討 ・定義した分析シナリオの実行&打ち手検討 ・実施施策の途上評価、ならびに効果検証 ・サービスの俯瞰的な計数モニタリングによる特異事象の発見と要因分析、展開 ■レポーティング ・KPI設計&BIツール等を用いた可視化 ■データ利活用の推進 ・ダッシュボードやその他分析ツールを使ったデータ利活用の社内推進 【仕事の特色】 <開発環境> ・PC:WindowsとMacより自由に選択可 ・使用言語:SQL、Python 等 ・Web解析ツール:Google Analytics、ContentSquare、A/Bテストツール ・BIツール:QuickSight、LookerStudio ・ストレージ/DWH:AWS S3,、Bigquery ・その他ツール:Docker、Github、JIRA、Confluence、Slack、Microsoft Office365、 Zoom など <データ分析部について> クルマのサブスクというビジネスモデルを展開するKINTOでは、市場やお客様のニーズを捉え、最高の顧客体験を提供するために、マーケティング分析においても挑戦と創造が求めらます。 データ分析部には、常に新しい挑戦を続け、発見や課題に対して「なぜ」を問い続ける姿勢を持つメンバーが集まっています。事業部門や他の開発部門と協力し、施策の評価や課題の発見、改善提案や仕組み化など、幅広い業務に携わっています。 データアナリスト、データサイエンティスト、データエンジニアが、データの収集や分析基盤構築から、データ分析、課題解決の提案まで、幅広い知識とスキルを身につけることができます。 さらに、KINTOだけでなく、グループ会社の分析部門とのコラボレーションも行っており、多様な環境やメンバーとの意見交換を通じて成長の機会を創出しています。 【ポジションの魅力】 ・KINTO事業のマーケティング全般の分析に携わることができます。多様化するお客様のニーズをデータ分析から明らかにし、新たなアプローチの企画や施策評価など、チャレンジングな経験を積み重ねることができます。また、 AI、機械学習も使って、高度な分析・予測についても学ぶことができます。 ・分析基盤構築からデータ分析、アウトプットまで幅広い知識を持ったメンバーが在籍しており、データを通じて事業貢献する為の幅広い知識と経験を得ることができます。また、KINTOだけでなく、グループ会社の分析部門との意見交換の機会もあります。 ・事業部門の課題に対してデータ分析を軸に関与し続ける続けることで、分析実務だけでなく、お客様視点の磨き上げやビジネスセンスなどを身につける事ができるのもポジションの魅力の一つです。 |
必須条件 |
・データ分析によるビジネス課題創出と打ち手検討経験 ・課題創出から分析要件設計、分析実務、結果プレゼンテーションまでを独力で遂行した経験 ・SQLを用いた分析データ抽出・前処理・集計 の業務経験 ・ビジネス ✕ お客様志向をもてる方 ・データ分析のみならず、ビジネス全般に関心を持ち、積極的に情報収集するなど率先して課題を自分ごと化できる方 ・分析結果や検討した改善策や打ち手を、分析依頼者や関係者の目線で言語化し、事業関係者へ説明できる方 ・新しい技術やトレンドのキャッチアップなど、学習意欲が高い方 |
||
---|---|---|---|
想定年収 |
606~1,200万円 |
||
募集職種 | |||
最寄り駅 |
新日本橋駅 (東京都) |
||
会社概要 |
お客様やビジネス部門の課題を発見、理解し、打ち手のための分析をプロジェクト等を通してビジネス部門のメンバーと共に推進していただきます。 本ポジションには、データ分析のスキルだけでなく、コミュニケーションやプロジェクト管理スキル、プレゼンテーションをはじめとした表現能力も必要です。 データ分析のみならず、ビジネス全般への関心を持ち、自ら率先して情報収集し、ビジネス部門の一員として業績向上に直接貢献したいという想いある方を求めています。 <具体的な業務内容> ■事業課題定義&アクション策定 ・ビジネス部門とのコミュニケーションを通じた与件、課題整理 ・データ分析の目的や仮説の整理・定義 ・分析に必要なデータ取得の企画・設計(仕組みづくり) ■データ分析&打ち手の検討 ・定義した分析シナリオの実行&打ち手検討 ・実施施策の途上評価、ならびに効果検証 ・サービスの俯瞰的な計数モニタリングによる特異事象の発見と要因分析、展開 ■レポーティング ・KPI設計&BIツール等を用いた可視化 ■データ利活用の推進 ・ダッシュボードやその他分析ツールを使ったデータ利活用の社内推進 【仕事の特色】 <開発環境> ・PC:WindowsとMacより自由に選択可 ・使用言語:SQL、Python 等 ・Web解析ツール:Google Analytics、ContentSquare、A/Bテストツール ・BIツール:QuickSight、LookerStudio ・ストレージ/DWH:AWS S3,、Bigquery ・その他ツール:Docker、Github、JIRA、Confluence、Slack、Microsoft Office365、 Zoom など <データ分析部について> クルマのサブスクというビジネスモデルを展開するKINTOでは、市場やお客様のニーズを捉え、最高の顧客体験を提供するために、マーケティング分析においても挑戦と創造が求めらます。 データ分析部には、常に新しい挑戦を続け、発見や課題に対して「なぜ」を問い続ける姿勢を持つメンバーが集まっています。事業部門や他の開発部門と協力し、施策の評価や課題の発見、改善提案や仕組み化など、幅広い業務に携わっています。 データアナリスト、データサイエンティスト、データエンジニアが、データの収集や分析基盤構築から、データ分析、課題解決の提案まで、幅広い知識とスキルを身につけることができます。 さらに、KINTOだけでなく、グループ会社の分析部門とのコラボレーションも行っており、多様な環境やメンバーとの意見交換を通じて成長の機会を創出しています。 ・メンバー紹介はこちら https://www.kinto-technologies.com/members/interview11/ ・テックブログはこちら https://blog.kinto-technologies.com/posts/2022_12_05_AnalysisGroup_blog/ 【ポジションの魅力】 ・KINTO事業のマーケティング全般の分析に携わることができます。多様化するお客様のニーズをデータ分析から明らかにし、新たなアプローチの企画や施策評価など、チャレンジングな経験を積み重ねることができます。また、 AI、機械学習も使って、高度な分析・予測についても学ぶことができます。 ・分析基盤構築からデータ分析、アウトプットまで幅広い知識を持ったメンバーが在籍しており、データを通じて事業貢献する為の幅広い知識と経験を得ることができます。また、KINTOだけでなく、グループ会社の分析部門との意見交換の機会もあります。 ・事業部門の課題に対してデータ分析を軸に関与し続ける続けることで、分析実務だけでなく、お客様視点の磨き上げやビジネスセンスなどを身につける事ができるのもポジションの魅力の一つです。 |
必須条件 |
・PythonやSQLを使用したコーディングのご経験 ・Microsoft AzureやAWSを使用した環境構築、運用のご経験 |
||
---|---|---|---|
想定年収 |
600~1,000万円 |
||
募集職種 | |||
最寄り駅 |
神田駅 (東京都) |
||
会社概要 |
当求人は、統合データ分析プラットフォームを活用した下記サービスを提供している「Lakehouse部」の求人です。 生成AIを活用した事業やデータ&AIの民主化を目指すためAIプラットフォーム開発を得意領域としており、コンサルタント、プロジェクトマネージャーやデータエンジニア、データサイエンティストのご経験を活かしてエンジニアの学びたい技術や目指すキャリアに応じて業務をお任せします。 ・AIと連携したデータ分析 ・データサイエンス、機械学習に関する内製化支援 ・上記に関連するクラウド基盤環境の提供やインフラSI業務 ■業務内容 主にDatabricksを活用した、データ利活用に関するお客様課題の解決 【データエンジニアリング業務】 ・データ基盤環境(データレイク・DWH)の設計・構築 ・各種データの収集、クレンジング、統合、最適化 ・ETL/ELTパイプラインの設計・実装・(Python,Airflow, dbtなど) ・ビッグデータ処理基盤の設計・運用(Spark、Hadoopなど) ・BIツール(Tableau、Power BIなど)向けのデータマート構築 ・ユーザートレーニング、内製化支援 【プロジェクト事例】 ・パブリッククラウド上におけるDatarbicksの評価、大規模マイグレーション案件 ・既存分析環境からDatabricks Lakehouse Platformへのマイグレーション案件 ・データパイプラインの設計及び実装案件 【仕事の特色】 ■業務の進め方の例 案件開始~2週間 ・データプラットフォームやプロダクト周辺のクラウド設計、構築(AzureやAWS) ・現状のデータの中身やフォーマットについてヒアリング ・Databricksを活用する計画について提案、データ内容や進め方に関する意見交換 1か月~2か月目 ・データ利活用に向けた分析基盤のインフラ構築と整備(Databricks環境の構築等) ・データ利活用に向けたデータ整形とプロセスの整備 ※最終的に「新規のデータが発生した際にお客様側でデータ追加・調整・再構成等が出来る状態」にするための整備 2か月~3か月目 ・ダッシュボードの試作 ・納品、仕様の説明や利活用についてお客様への説明 キャリアパス エンジニアの学びたい技術や目指すキャリアに応じて業務をお任せします。 例:データ収集やデータ統合、仮説検証、モデル構築、データの可視化等々 ■開発環境 言語:Python,SQL,Q言語 インフラ:Microsoft Azure,AWS データプラットフォーム:Databricks 可視化ツール:Tableau,PowerBI ソースコード管理:GitHub ■チーム体制 ・PM2名 ・データエンジニア3名 ・インフラエンジニア1名 ■賃金形態 日給月給制 |
必須条件 |
・データ分析に関わる業務経験 ・組織を統制するための方針を策定した経験またはデータの利用に関する社内のガバナンスルールを策定・運用した経験 |
||
---|---|---|---|
想定年収 |
600~1,500万円 |
||
募集職種 | |||
最寄り駅 |
新宿駅 (東京都) |
||
会社概要 |
現在当社で運営する既存HR Techプロダクト及び全社で保有する大量のデータを利活用できる“データドリブン経営”をけん引する為、新たにデータガバナンス専任組織を立ち上げます。 あなたには立ち上げメンバーとして社内のガバナンス体制の構築及び組織の推進をお任せいたします。 組織づくり、仕組み・戦略づくりから、全社横断で関わっていただける環境です。 ■業務内容 ・データ戦略の策定 ・データ基盤の管理 ・HR Techプロダクト及び全社のデータ収集 ・全社的なデータ品質の維持 ・データマートの設計、実装 ・データ提供 ・データサイエンス部門、アプリケーション開発部門、情報システム部門との調整 募集背景 当社は日本最大級の規模でサービス提供を行っています。ですが、まだまだ進化の途上。目指すのは、すべての人の仕事人生を豊かにすること、そして「活躍人材」を増やし、世界を変えていくことです。そのための既存プロダクトにおける持続的な改善、さらに顧客基盤・営業基盤を活かし、シナジーを生む新規プロダクトの開発が欠かせません。また、今後よりHR領域の本質的な課題解決に向け全社的なデータ利活用を推進すべく新たに全社横断のデータ組織にて「プラットフォーム構築」を構想しており、その実現のために仲間を求めています。 【仕事の特色】 ■開発環境 - 開発言語等:Python/ SQL / PySpark / - インフラ:AWS ( RDS / DynamoDB / AWS Glue / Athena / EC2 / S3 / Lambda / DMS / IAM / ネットワーク関係 etc.)、一部 GCP - その他ツール: Databricks / Terraform / GitHub / zoom / Slack ★大量・希少なデータに関われる 1000万人以上の会員を保有する「エン転職」をはじめとしたエン・ジャパンが運営する様々なサービスに紐づく企業、ユーザー、クチコミなどの多くのデータを扱います。 多くのデータを活用してプロダクト・事業の成長を推進する方々を、データガバナンスの体制や運用を通じて支援してください。 |
必須条件 |
下記のうち複数のご経験・知識 ・データ基盤の構築・運用経験 ・大量データの取り扱い(ETL/ELT、データパイプライン設計・実装など)の経験 ・RDB/NoSQLの知識・運用スキル ・SQLによるデータ操作、クエリ最適化 ・Python、Scala、Javaなど、データ処理・バッチ処理で用いられる言語の実務経験 ・GCPやAWSなどでの開発・運用経験 ・チーム開発・プロジェクトマネジメントスキル ・高い当事者意識を持ち、主体的に取り組める方 ・最新技術やセキュリティ動向にアンテナを張り、継続的に学習できる方 ・チームプレーヤーとしてコミュニケーションを大切にしつつ、リーダーシップを発揮できる方 ・リスク管理や品質向上など、安全かつ安定したサービス提供に情熱を持てる方 |
||
---|---|---|---|
想定年収 |
600~1,200万円 |
||
募集職種 | |||
最寄り駅 |
品川駅 (東京都) |
||
会社概要 |
【主な業務内容】 当社の多岐にわたる事業領域において、以下のような幅広いデータ領域での業務を担当していただきます。 ■データ基盤の設計・構築・運用 ・大規模データの収集・保管・処理に関わるパイプラインの構築 ・データウェアハウス/データレイクの設計と運用 ・ストリーミング処理基盤の導入・管理 ■データ活用のためのエンジニアリング ・社内外向けデータ活用サービスの要件定義・設計 ・機械学習モデルの本番環境へのデプロイやMLOpsの推進 ・可視化やBIツールの導入・運用 ■データサイエンス領域のサポート・連携 ・分析用データマートの設計・作成 ・データサイエンティストと連携し、分析業務を加速させるためのインフラ構築 ■プロジェクトマネジメント・推進 ・関連部門やステークホルダーとの要件調整・進行管理 ・チームメンバーや協力会社のマネジメント など 【期待する役割】 ■データエンジニアリングの中核としてのリード ・データ基盤やパイプライン構築における技術選定・アーキテクチャ設計 ・運用・保守体制の構築と継続的な改善 ■データドリブンな文化の醸成 ・データ活用の意義や手法をチーム・社内に浸透させ、プロジェクトを推進 ・ステークホルダーやエンジニアとのコミュニケーションを活性化し、情報共有を促進 【仕事の特色】 【概要】 当社では、サービスやプロダクトの開発だけでなく、データを利活用した新たな価値創造に力を注いでいます。先端技術開発室に所属し、データ基盤の構築、データ活用戦略の立案、データサイエンス分野との協業などを推進していただけるデータエンジニアを募集します。 ※勤務地によって業務内容が変わることはありません、福岡へのUターン・Iターンも歓迎です 【開発環境】 ・開発言語: Java(Spring、SpringBoot)、C♯、JavaScript(TypeScript、Angular)、HTML5、CSS3(Sass) ・ツール・プラットフォーム: Eclipse、IntelliJ、Visual Studio Code、Docker、Jenkins、CI/CD、Kubernetes、nginx、GitLab ・データベース: Cassandra、Elasticsearch、Redis、CloudSQL ・クラウド: GCP、AWS ・OS: Windows、macOS、Linux、Android、iOS ※上記は一例です。プロジェクトに合わせて最適なツールを選定し、検証・導入を行います。 【このポジションの魅力】 ・多様なデータ・多彩な事業へのアプローチ 当社が持つさまざまな事業領域のデータを横断的に扱い、新たなビジネス価値を創造するチャンスがあります。 ・最先端のデータ基盤・ツールに触れられる クラウドやビッグデータ技術、AI・MLなどのトレンドを活用してプロジェクトを推進できます。 ・チームビルディングに貢献できる プロジェクトをリードしつつ、データドリブンな文化を社内に根付かせる活動にも挑戦できます。 ※スペシャリストからリーダーレイヤーまで、幅広く募集しています |
必須条件 |
・データ基盤の開発・運用・保守の実務経験1年以上 ・1つ以上のスクリプト言語を用いた開発・運用・保守経験1年以上 ・SQLを用いたデータベース操作、集計の実務経験 ・関係する各所と積極的にコミュニケーションを図ることができる方 |
||
---|---|---|---|
想定年収 |
600~1,000万円 |
||
募集職種 | |||
最寄り駅 |
五反田駅 (東京都) |
||
会社概要 |
データ専門家でなくても、容易にデータ利活用できる環境を整備していきます。 そのために、データ基盤を1から設計・開発しており、構築段階のプロジェクトに関わっていただきます。並行して、データの可視化やマーケティング業務の支援も行います。 <具体的な仕事内容> ・新規データ構造、および、新規データベースの構築と保守 ・新規データ処理システムの設計 ・データの可視化 ・マーケティングの支援(キャンペーンの運用) ・SQLを用いたデータ抽出業務 ・データのクロスチェック ・他チームからのデータに対する問い合わせ対応 【仕事の特色】 <募集背景> ウェルスナビでは、データ活用を技術戦略の中核に据えています。 マーケティング施策の精度向上やプロダクト機能の継続的改善はもちろん、今後は個人向け金融プラットフォームを目指すうえで、データ活用がますます重要になってきています。 ところが、従来のデータ基盤は、一部のデータ専門家しか使えない複雑なものになっており、データ利活用戦略を推進する上で阻害要因となっていました。 また、新規事業などを進めており、増え続けるデータの扱いに関しても再考するタイミングとなりました。 <ポジションの魅力> ・新規事業の核となるのが「新データ基盤構築」 当社は従来からデータ分析をして着実に事業を伸ばすことを大事にしていますが、現在立ち上げている「個人向け金融プラットフォーム」については、特にデータ利活用を核として進めており、そのために新データ基盤構築を行っています。事業側にはデータアナリティクスチームがあり、データ基盤開発チームと協働してデータ利活用を促進しています。 ・マルチプロダクト化に向けた体制づくり 新規事業の展開や、MUBKとの協業が進むにつれてデータ量がさらに増加していくことが予想されており、将来的にはプロダクト横断でのデータ利活用に携わっていただく機会もございます。 ・データエンジニアリングの専門性の向上 金融という領域で機密性の高い情報や、証券取引関連の複雑なデータ管理を経験することは、データエンジニアリングスキルの底上げにつながります。また、求められる安定性を担保する設計経験や運用の意識が身に付き、高い専門性を獲得いただけます。 <開発環境> ・DWH:BigQuery ・インフラ:AWS, GCP ・ワークフローエンジン: Apache Airflow ・ETL:Amazon Appflow ・使用言語:SQL, Python, Ruby など <参考情報> ■全社LT大会を開催しました https://www.wantedly.com/companies/wealthnavi/post_articles/403356 ■TechBlogを始めました https://zenn.dev/p/wn_engineering |
必須条件 |
下記のうち複数のご経験・知識 ・データ基盤の構築・運用経験 ・大量データの取り扱い(ETL/ELT、データパイプライン設計・実装など)の経験 ・RDB/NoSQLの知識・運用スキル ・SQLによるデータ操作、クエリ最適化 ・Python、Scala、Javaなど、データ処理・バッチ処理で用いられる言語の実務経験 ・GCPやAWSなどでの開発・運用経験 ・チーム開発・プロジェクトマネジメントスキル ・高い当事者意識を持ち、主体的に取り組める方 ・最新技術やセキュリティ動向にアンテナを張り、継続的に学習できる方 ・チームプレーヤーとしてコミュニケーションを大切にしつつ、リーダーシップを発揮できる方 ・リスク管理や品質向上など、安全かつ安定したサービス提供に情熱を持てる方 |
||
---|---|---|---|
想定年収 |
600~1,200万円 |
||
募集職種 | |||
最寄り駅 |
品川シーサイド駅 (東京都) |
||
会社概要 |
【概要】 当社では、サービスやプロダクトの開発だけでなく、データを利活用した新たな価値創造に力を注いでいます。先端技術開発室に所属し、データ基盤の構築、データ活用戦略の立案、データサイエンス分野との協業などを推進していただけるデータエンジニアを募集します。 ※勤務地によって業務内容が変わることはありません 【主な業務内容】 当社の多岐にわたる事業領域において、以下のような幅広いデータ領域での業務を担当していただきます。 ・データ基盤の設計・構築・運用 ・大規模データの収集・保管・処理に関わるパイプラインの構築 ・データウェアハウス/データレイクの設計と運用 ・ストリーミング処理基盤の導入・管理 ・データ活用のためのエンジニアリング ・社内外向けデータ活用サービスの要件定義・設計 ・機械学習モデルの本番環境へのデプロイやMLOpsの推進 ・可視化やBIツールの導入・運用 ・データサイエンス領域のサポート・連携 ・分析用データマートの設計・作成 ・データサイエンティストと連携し、分析業務を加速させるためのインフラ構築 ・プロジェクトマネジメント・推進 ・関連部門やステークホルダーとの要件調整・進行管理 ・チームメンバーや協力会社のマネジメント など 【仕事の特色】 【期待する役割】 ・データエンジニアリングの中核としてのリード ・データ基盤やパイプライン構築における技術選定・アーキテクチャ設計 ・運用・保守体制の構築と継続的な改善 ・データドリブンな文化の醸成 ・データ活用の意義や手法をチーム・社内に浸透させ、プロジェクトを推進 ・ステークホルダーやエンジニアとのコミュニケーションを活性化し、情報共有を促進 【このポジションの魅力】 ・多様なデータ・多彩な事業へのアプローチ 当社が持つさまざまな事業領域のデータを横断的に扱い、新たなビジネス価値を創造するチャンスがあります。 ・最先端のデータ基盤・ツールに触れられる クラウドやビッグデータ技術、AI・MLなどのトレンドを活用してプロジェクトを推進できます。 ・チームビルディングに貢献できる プロジェクトをリードしつつ、データドリブンな文化を社内に根付かせる活動にも挑戦できます。 ※スペシャリストからリーダーレイヤーまで、幅広く募集しています 【ポジションの魅力】 当社は自動車アフターマーケットを支える各事業者向けに『パッケージメーカー』として、業務支援パッケージシステムを提供しています。 当社の秘訣は、30年のビジネス展開で培った日本有数のビッグデータ※です。今後はこのデータを活かし、整備工場や部品商などをつなぐクラウドプラットフォームサービスを創出しさらにマーケットを発展させていこうと考えております。クラウド開発部門を大幅に強化する予定です。 昨今、車は個人所有からカーシェアへ移行していますが、車の出回る台数は減少していません。ガソリン車からEVに変わり整備のニーズやバリエーションが増える一方で整備業者は減少の傾向にあります。 整備業者の1社1社が効率的なメンテナンスを求められる中、業務効率(アナログ→デジタル)システムのニーズが上昇しています。 当社が、取引先ひいては業界のDXを推進していきたいと考えております。 「パッケージメーカー」から自動車アフターマーケット全体を支援する『プラットフォーマー』として、自動車アフターマーケットを支える各事業者や3rdパーティー保有するベンダー、ユーザーをシームレスに繋ぐプラットフォームサービスをつくる構想がございます。 ※当社は、国内における3台に1台(約1682万台)の車両データ、膨大な自動車の修理データ、年間20億点以上の流通・製造データなどを保有しています。(車の仕様:48万点以上/車の部品仕様:4億6000万点以上/車、部品の流通:2億点) 【開発環境】 ■技術環境 ・開発言語: Java(Spring、SpringBoot)、C♯、JavaScript(TypeScript、Angular)、HTML5、CSS3(Sass) ・ツール・プラットフォーム: Eclipse、IntelliJ、Visual Studio Code、Docker、Jenkins、CI/CD、Kubernetes、nginx、GitLab ・データベース: Cassandra、Elasticsearch、Redis、CloudSQL ・クラウド: GCP、AWS ・OS: Windows、macOS、Linux、Android、iOS ※上記は一例です。プロジェクトに合わせて最適なツールを選定し、検証・導入を行います。 |
必須条件 |
・SQL等でのデータ抽出や集計経験などデータに触れるスキル ・クラウドデータベース(Treasure Data・Bigquery・Snowflake・Databricks等)の利用経験 ・開発環境記載の言語/ツールの使用経験 【カルチャー】 ■課題解決型の思考ができる方 ■学習意欲が高く、好奇心を持って取り組める方 ■顧客への価値提供にコミットできる方 ■会社のコアメンバーとして働いていきたい方 【ビジョン】 ■キャリアビジョンと企業ビジョンの一致 ビジネス/マーケティング×データエンジニアリングのキャリアを目指している方、興味を持っている方。 ■成長意欲 データエンジニアリングのスキルやマーケティングのスキルを活かしつつ、市場価値を高めていきたい方 |
||
---|---|---|---|
想定年収 |
600~1,000万円 |
||
募集職種 | |||
最寄り駅 |
新橋駅 (東京都) |
||
会社概要 |
設計されたアーキテクチャ、データパイプライン、データマートの実装を主に担当します。 また活用フェーズではデータアーキテクトと共に集計・分析、結果の報告までの実装を対応します。 【顧客のデータプラットフォーム構築】 データコンサルタントやマーケティングコンサルタントとプロジェクトを組成し、Treasure DataやGoogle Bigquery、Snowflake、Databricks等を用いてデータプラットフォームを構築します。 主な担当は、実装フェーズにおけるデータのアーキテクチャ整理や、データパイプライン、データマートの設計になります。 また、顧客が保有するデータの棚卸や、データ戦略立案などの要件定義フェーズまで一気通貫で対応することもあります。 【顧客のデータプラットフォーム活用】 SQLやPython、BIツールでデータを集計・分析し、顧客が意思決定する際に役立つアウトプットを提供します。 マーケティングコンサルタントやデータアーキテクトと共に、顧客へのヒアリング・要件定義から、集計・分析、結果の報告までのプロセスにおけるデータ集計やBIの実装を主に担当します。 【仕事の特色】 【やりがい】 ・前年比売上500%の急成長中スタートアップ企業に、コアメンバーとしてジョインしていただきます。 ・東証プライム上場自動車メーカーなど、日系大手企業をクライアントにデータの活用支援を行えます。 【成長環境】 ・コアメンバー候補を募集しており、CSO兼データ系職種の責任者とともにクライアントの支援を行っていただきます ・ビジネス/マーケティング×データエンジニアリングのスキルアップができ、市場価値や希少性を圧倒的に高められます。 【服装備考】 顧客訪問先によってはビジネスカジュアルまたはスーツの場合があります。 |
必須条件 |
・プロジェクトマネジメントの経験(3年以上) ・データマネジメント関連の業務に従事した経験 ・部署や職種を跨いだ各ステークホルダーと協業した経験 ・データマネジメントに興味関心がある方 ・物事を整理し、筋道を立てて一貫した考え方ができる方 ・必要に応じて他のチームと協力・調整できる方 ・新しい技術や手法を積極的に学び、問題解決に活かせる方 ・積極的にコミュニケーションを取り、情報共有や問題把握が柔軟にできる方 |
||
---|---|---|---|
想定年収 |
600~1,200万円 |
||
募集職種 | |||
最寄り駅 |
千駄ケ谷駅 (東京都) |
||
会社概要 |
【仕事内容】 出前館のデータに基づいた意思決定を支えるため、データ領域のプロダクトマネージャーとしてデータ分析環境およびデータそのもののマネジメントに携わっていただきます。 【業務例】 ・データマネジメントに関連したプロジェクトの企画・推進 ・データの運用や活用ルール、セキュリティポリシーの策定・周知・運用 ・社内やグループ会社の各部署とデータに関連したコミュニケーション ・データ権限やBIツールの権限管理 ・メタデータの収集や管理 *上記すべてを一人で担当するわけではございません。得意分野やキャリアプランに応じてご担当いただく業務スコープは調整いたします。また、上記以外の業務や、必要に応じてエンジニアリングに挑戦していただくことも可能です。 【仕事の特色】 【募集の背景】 当社では、日々多くのデータが生成され、そのデータを活用して事業を推進しています。 今後の事業拡大を見据え、データの活用をさらに加速するためのプラットフォームとデータそのものの専門的なマネジメントが不可欠です。 現在はデータアナリストやデータエンジニアが協力してデータ分析環境の運営やデータマネジメントを行っていますが、今後の成長を支えるため、データ領域における専任のマネージャーを募集しています。 データの管理・運用に関する専門知識と経験を持ち、当社のデータ戦略をリードしていただける方をお待ちしております。 【参考】 Google Next Tokyo 24 の当社セッション https://cloudonair.withgoogle.com/events/next-tokyo-24?talk=d2-da-06 【開発環境】 ■データ環境・利用ツール ・DWH : Google BigQuery ・ELT : dataform ・BI : Redash / Tableau Cloud ・データ可視化 : Tableau Cloud, Redash, Looker Studio ・タスク管理 : Jira ・ドキュメント管理 : Confluence, Google workspace ・コミュニケーション : Slack, LINE Works ■使用するテクノロジー・ツール ・開発言語:SQL, Python ・インフラ:AWS, GCP, OCI, On-premise ・データベース:Oracle, Bigquery, MySQL ・CI/CD:GitHub Actions ・コード管理:GitHub ・モニタリング:Maxgauge, Oracle enterprise manager, New Relic ・タスク管理:JIRA 【参考資料】 ・エンジニアブログ https://recruit.demae-can.com/engineer-recruitment/ ・会社紹介資料 https://speakerdeck.com/demaecan/hui-she-shuo-ming-zi-liao-202211-bc3f861b-1973-45f0-af97-198e202a31d5 ・プロダクト本部紹介資料 https://speakerdeck.com/demaecan/purodakutoben-bu-shao-jie-zi-liao |
簡単なアンケートご協力ください
表示された求人にはどの程度関連性がありますか?
ご回答ありがとうございます。
関連性がないと感じられたのは、次のどの項目ですか?(複数可)
ご協力ありがとうございました
正社員をお探しの企業様へ