Cake Job Search

Advanced filters
Off
Full-time
公司介紹 我們的客戶是一家長期深耕金融科技與數位創新的大型金融機構,近年積極投入資料平台與雲端架構升級,打造企業級數據基礎設施,支援數據分析、AI模型與多元金融場景。 團隊目前正推動 Modern Data Stack 與資料治理體系建設,導入雲端數據平台、資料血緣管理與自動化資料流程,讓數據能真正驅動產品決策與金融服務創新。 對資料工程師而言,這是一個能接觸 大規模資料、成熟商業場景與完整數據治理架構 的環境,能在穩定產業背景下,參與企業級資料平台的設計與落地。 工作內容 設計與維護 雲地混合(Hybrid Cloud)數據架構 建立與開發 大規模 Data Pipeline,處理結構化、半結構化與非結構化資料 建立資料處理流程的 自動化監控與維運機制 評估與導入 Modern Data Stack,提升資料治理、品質與血緣管理能力 使用資料治理與元資料管理工具,管理企業數據資產 維護與優化 Airflow 工作流程平台,支援資料科學與分析團隊的資料處理流程 設計部署與監控策略,確保資料平台穩定與高可用性 使用的技術 Python SQL Apache Airflow GCP(Composer / Dataflow) Terraform CI/CD Pipeline Data Governance / Data Lineage Modern Data Stack
GCP
ETL
Airflow
900K ~ 1.3M TWD / year
3 years of experience required
No management responsibility
・與產品、風控、運營團隊協作,針對業務需求定義資料模型與監控指標・建置 ETL 流程,收集與清洗來自平台的行為數據(如下注記錄、轉碼、點擊行為)・開發與維護異常偵測模型(如洗碼對打、機器人行為、套利用戶)・利用機器學習或統計模型預測玩家留存、LTV、流失風險・設計風控策略,提升平台資金與行爲風險控制能力・定期產出分析報告,提出可行的產品或營運優化建議
Spark
Redshift
Python
50K ~ 120K TWD / month
3 years of experience required
Managing staff numbers: not specified
公司介紹 這是一家深耕台灣市場、具高度用戶滲透率的 FinTech 科技公司,長期處於高流量、高交易頻率的業務場景。產品服務已融入日常生活與金融行為,資料規模與複雜度持續成長。 目前公司正進入 數據基礎建設與治理升級的關鍵階段,高層明確將「數據驅動決策」視為下一階段成長核心,並投入資源打造更穩定、可擴展的資料平台,讓數據真正成為產品與營運的決策引擎。 這個角色將站在 公司級數據戰略中心,不只是管理團隊,而是實際參與並影響整體商業方向。 工作內容 帶領資料應用部門(資料工程、資料分析、BI / Data Science 團隊),管理約 5–10 位成員 規劃並推動 公司級 Data Platform(Data Lake / DWH / ETL / Streaming) 與工程與系統架構團隊協作,確保資料系統的 穩定性、可用性與擴展性 審視並優化資料流、事件系統、Schema 與整體資料架構設計 建立 資料治理、品質控管、權限與統計口徑制度 建構指標、Dashboard 與分析框架,支援 產品、營運、行銷與管理決策 推動 A/B Test、數據實驗與行為分析,讓決策有數據依據 作為跨部門橋樑,協調技術與商業需求,推動策略落地 使用的技術 Data Platform:Data Lake、Data Warehouse、ETL / ELT、Streaming Big Data / Pipeline:Spark、Kafka、Airflow Data Ops:Pipeline 監控、版本控管、CI/CD Cloud / Hybrid:BigQuery、Snowflake(地端為主、雲端為輔) BI / Analytics:指標設計、Dashboard、實驗分析
Spark
Snowflake
Kafka
2M ~ 3.5M TWD / year
10 years of experience required
Managing 5-10 staff
🏢 公司介紹 我們的客戶是台灣最具規模與影響力的零售集團龍頭,積極拓展多元化的電商平台生態系。作為台灣零售業的標竿企業,該公司持續引領產業創新,近年積極推動全面數位轉型,整合線上線下(O2O)資源,打造台灣最大規模的全通路零售平台。 為什麼加入我們? 產業領導地位:台灣零售業龍頭,擁有穩健發展基礎與龐大數據資產 數位轉型先鋒:目前正全力投入集團電商整合與數位化升級,是參與零售科技革命的絕佳時機 絕佳職涯發展:在數位經濟時代,您的專業能力將直接對數百萬消費者與企業營收產生顯著影響 【工作內容】 你將成為企業數據基礎架構的核心工程師,協助打造能支撐數百萬筆用戶行為與交易資料的即時數據平台: CDP 數據架構設計:規劃資料模型、整合多元來源,提升行銷科技自動化能力 即時與批次資料處理:使用 Kafka、Flink 建構流處理系統;以 Airflow 調度高效批次流程 數據湖與查詢效能:應用 Delta Lake、Snowflake 提升查詢速度與資料整合效率 資料品質與監控:導入 data observability,確保資料一致性與可追蹤性 跨部門合作與技術領導:與行銷、產品、資料科學團隊密切合作,支援 MLOps 與模型部署 資料合規與治理:設計符合 GDPR、CCPA 的資料管理機制,落實企業資料安全策略 【使用技術】 程式語言:Python / Java / Scala 即時處理:Apache Kafka、Apache Flink 批次處理與排程:Apache Airflow 數據平台:Snowflake、Delta Lake、BigQuery 雲端平台:AWS / GCP / Azure 其他:Databricks、Kubernetes、Docker、CI/CD、MLOps
Kotlin
java
python
1.2M ~ 2M TWD / year
5 years of experience required
Managing 5-10 staff
🌟高流量🌟國際社群軟體開發商,致力於開發以地緣為主的社群平台,擁有將近五千萬人次下載量、數十億影片瀏覽次數,用戶遍及全球。比起關注遙遠的地點發生了什麼事,人對於發生在自己生活周遭的事物更有興趣。人們在這些熟悉的地方最有親切感與歸屬感,也因此關切在此發生的一切。我們藉由地緣結合短影片及區域話題群組探索生活周遭的新鮮事物,與所在地點有更深入的連結。🗣️新產品 AI Friend去年推出北美市場,與 ChatGPT 一問一答、整理資訊的模式不同,更像是朋友,能記住你的相關訊息,像是朋友的生日、最近的聊天內容等。該產品由一支20多人組成的AI團隊開發,已經研發多年。 如果你喜歡快節奏的工作模式,或者你希望擁有值得奮鬥的人生目標;想參與產品的快速成長,並期待在大流量的社群平台中獲得成就,歡迎聯繫我們。 工作簡述 我們正在尋找一位充滿熱情且技術熟練的AI工程師加入我們的團隊,負責設計、開發和實施人工智慧解決方案。你將與跨職能團隊合作,利用機器學習、深度學習和資料分析技術來解決複雜問題並推動產品創新。 工作內容 設計並開發AI模型,包括機器學習和深度學習演算法,用於解決業務需求。清理、預處理和分析大規模資料集,確保模型輸入資料的品質。將AI模型整合到現有系統或應用程式中,並優化其效能與可擴展性。與資料科學家、軟體工程師和產品經理合作,定義專案目標並交付成果。持續監控和改進已部署的AI系統,確保其準確性和可靠性。研究最新的AI技術和趨勢,並提出應用於公司產品的創新建議。撰寫清晰的技術文件,記錄模型開發過程和部署細節。 此職務的必要條件 至少2-3年AI、機器學習或相關領域的實務經驗。程式語言:熟練掌握Python,熟悉相關套件(如TensorFlow、PyTorch、Scikit-learn、Pandas等)。技術能力:深入理解機器學習演算法(例如回歸、分類、叢集)和深度學習框架(例如CNN、RNN、Transformer)。熟悉資料處理和特徵工程技術。有雲端平台經驗(如AWS、Google Cloud、Azure)者佳。問題解決能力:能夠獨立分析並解決技術挑戰。團隊合作:具備良好的溝通能力和跨部門協作經驗。學歷:電腦科學、資料科學、數學、工程或相關領域的學士學位(碩士或博士學位尤佳)。 加分條件: 有自然語言處理(NLP)、電腦視覺或強化學習的專案經驗。熟悉大數據工具(如Hadoop、Spark)或容器技術(如Docker、Kubernetes)。已發表過AI相關論文或擁有開源專案貢獻。 工作內容: 1. 資料分析(領域資料洞悉、特徵選擇、資料前處理等) 2. 機器學習或其他相關演算法開發, 維運 3. 機器學習模型改善以及效能調校 4. 開發以及部署高度可擴展的機器學習模型 5. 使用資料整合平台(如AirFlow) 建立 MLOps 管線
Machine Learning
GCP
Deep Learning
1M ~ 1.8M TWD / year
5 years of experience required
No management responsibility
🏢 公司介紹 我們的客戶是台灣最具規模與影響力的零售集團龍頭,積極拓展多元化的電商平台生態系。作為台灣零售業的標竿企業,該公司持續引領產業創新,近年積極推動全面數位轉型,整合線上線下(O2O)資源,打造台灣最大規模的全通路零售平台。 為什麼加入我們? 產業領導地位:台灣零售業龍頭,擁有穩健發展基礎與龐大數據資產 數位轉型先鋒:目前正全力投入集團電商整合與數位化升級,是參與零售科技革命的絕佳時機 絕佳職涯發展:在數位經濟時代,您的專業能力將直接對數百萬消費者與企業營收產生顯著影響 工作內容介紹 領導團隊:帶領資料科學家與資料工程師團隊,訂定技術目標,打造以成長與創新為核心的團隊文化。 技術路線圖:規劃並執行資料科學與AI技術策略,導入機器學習平台與雲端資料解決方案,確保系統高效與可擴展。 跨部門協作:與工程、行銷與產品團隊合作,將業務需求轉化為數據驅動的解決方案,推動個人化推薦與預測分析專案。 資料合規:確保資料處理流程符合隱私與合規要求,建立安全且穩健的資料管線。 專案管理:監督資料蒐集、建模與部署流程,確保專案成果能有效落地並創造商業價值。 使用的技術 程式語言:Python、R、Java 雲端平台:AWS、Google Cloud Platform(BigQuery)、Azure(Redshift、Databricks) 大數據技術:Spark、Hadoop、Airflow、AWS Data Pipeline 機器學習框架:TensorFlow、PyTorch、MLflow、Kubeflow 容器與CI/CD:Kubernetes、Docker 其他:ETL/ELT流程、敏捷開發(Scrum/Kanban)、A/B測試、CDP與MarTech整合
CDP
Recommendation System
NLP
1.8M ~ 2.8M TWD / year
10 years of experience required
Managing 5-10 staff
【公司介紹】 我們是一家深耕台灣市場、擁有數百萬活躍用戶的金融科技平台,長期專注於打造整合支付與嵌入式金融服務的數位生態圈。產品服務橫跨線上與線下場景,並持續拓展跨境合作與創新金融應用。 在高速成長與龐大交易量的環境下,數據已成為公司最核心的資產之一。團隊正啟動數據中台與基礎架構升級計畫,期望建立更高擴展性與高可用性的數據平台,支撐未來數年業務成長。 此職位將直屬技術最高主管,參與數據架構與技術策略規劃,能見度高、決策影響力強,對於希望從「工程執行者」邁向「技術與組織塑造者」的數據主管而言,是難得的舞台。 【工作內容】 帶領並培養 Data Engineering 團隊,建立高效且高品質的工程文化 規劃與建置企業級數據中台與資料基礎設施(含即時與批次處理架構) 設計與優化大規模 ETL Pipeline,確保資料準確性與安全性 建構高可用、高擴展的數據平台架構(Cloud + On-Prem 混合環境) 與產品、商業與工程團隊合作,定義數據模型與資料產品架構 推動資料治理、數據目錄與數據品質管理機制 導入與評估新技術,提升效能、穩定度與成本效率 【使用技術】 Programming: Python / Scala / Shell Database: MS SQL / MySQL / ClickHouse / BigQuery Data Processing: PySpark / Kafka / Airflow Cloud: GCP(含 Dataflow 等服務) Architecture: Data Lake / Data Warehouse / CDC / Streaming Visualization: Tableau / Superset 【為什麼值得加入?】 數百萬用戶、巨量交易場景,數據完整且具高度商業價值 直接參與企業數據戰略規劃,非單純維運角色 高層高度信任,具架構決策權與團隊塑造權 在高速成長的 Fintech 領域,打造可長期演進的數據平台 從 0→1 強化數據中台,是能寫進履歷的代表作
Python
GCP
ETL
1.8M ~ 2.3M TWD / year
5 years of experience required
Managing 1-5 staff
Join a fast-growing fintech company that’s shaping the future of digital asset trading. Backed by a global user base and a mission to build secure, scalable systems, we are now expanding our data infrastructure team and looking for experienced Data Engineers ready to make a real impact. Here, engineers are trusted with real ownership and are empowered to propose, build, and optimize data systems from the ground up. If you're passionate about designing robust pipelines and enjoy working with international teams, this is your next challenge. 🔍 About the Role As a (Senior) Data Engineer, you will work closely with Data Scientists and Analysts across teams to build, optimize, and maintain data pipelines on a cloud-first architecture. This role involves collaborating with stakeholders across departments, identifying performance gaps, and ensuring our data systems remain scalable, reliable, and observable. 💼 Responsibilities Build and maintain scalable data pipelines and infrastructure on AWS Collaborate with analysts and scientists to ensure timely, accurate data delivery Design and improve ETL/ELT workflows using tools like Apache Airflow Set up monitoring and observability for data integrity and system performance Propose and implement improvements to our current data platform 🎁 What We Offer Competitive annual compensation package Flat team structure and international collaboration environment Flexibility to partially work remotely Healthcare coverage and wellness benefits A front-row seat to the fast-evolving world of fintech and blockchain Interested in building the future of data at scale? Apply now or reach out for a confidential chat. We’re excited to meet builders who care about performance, integrity, and impact.
ETL
Data
AWS
1.2M ~ 1.8M TWD / year
4 years of experience required
No management responsibility
At MoMo, we are not just processing transactions; we are shaping the future of finance in Vietnam.As a Data Analyst Trainee in the Corporate Data Office (CDO), this role is an opportunity for you to learn by doing.You will be guided by experienced data professionals, explore how analytics supports real business decisions, and gradually gain hands-on experience in building data products—from raw data to insights and reusable data assets—used across MoMo’s products and internal platforms.Mô tả công việcLearn and work with semantic / metrics layers (e.g. semantic models, metrics definitions, dimensions) to support consistency across dashboards and analyses.Build and maintain automated dashboards to monitor key performance metrics, with guidance from the team.Analyze datasets to generate insights that support business and product decision making.Develop an understanding of the “Data as a Product” mindset, contributing to data solutions that are reliable, well-documented, and reusable.Gain hands-on experience with workflow orchestration tools such as Airflow, n8n, or similar platforms.Collaborate with internal teams to understand business needs and support the delivery of data solutions.Support cross-functional projects by contributing analytical insights and data foundations.Yêu cầu công việcFinal-year student or fresh graduate in Data, Computer Science, Statistics, Economics, or related fieldsStrong analytical mindset to support data-driven decision makingFast learner with high learning agility, eager to pick up new data tools and conceptsData product mindset: build reliable, reusable datasets beyond one-off reportsBasic proficiency in SQL and comfort working with large datasetsClear communication skills (English Vietnamese) and ability to collaborate cross-functionally
No requirement for relevant working experience
The MoMo Recommendation Platform is a complex system that powers personalized experiences for millions of users using a diverse range of technologies.We’re looking for a Senior Software Engineer with strong system thinking, architecture design skills, and a product mindset to help build the MLOps platform that transforms any AI/ML solutions into production-grade systems at scale.Mô tả công việcThink like a product engineer: you don’t just “code a solution” – you build a platform that empowers others to deliver intelligent sysDesign and develop a flexible platform that turns AI/ML solutions into production-ready systems: microservices, batch pipelines, or real-time APIsBuild infrastructure to support:Model training pipelinesPackaging deploymentServing rolloutMonitoring alertingCollaborate closely with Data Scientists, Business, and Product teams to deeply understand requirements and design adaptable, scalable solutionsIntegrate platform components into MoMo’s broader infrastructure: promotion engine, A/B testing, analytics, real-time scoring, etc.Yêu cầu công việcMust-Have5+ years of experience in software development, system architecture, or backend/platform engineeringProficiency in one or more of the following: Python, Bash, C++, JavaScript, Java, or GoStrong problem-solving skills and teamwork spiritExperience with:Platform Deployment: Kubernetes, Helm, Argo CD, Argo Rollouts, Docker, Google Cloud Platform (GCP) or Amazon Web Services (AWS)Serving APIs: FastAPI, gRPC, MLflow, KServe, custom logic services, REST APIsData Messaging: BigQuery, Redis, MongoDB, PostgreSQL, Oracle, MySQL, Kafka, Pub/SubOrchestration Workflow: Airflow, Argo WorkflowsCI/CD Monitoring: GitHub Actions, Prometheus, GrafanaData Sources: App event streams, relational databases, messaging systems, APIsSolid understanding of distributed systems and cloud-native architectureAbility to design systems that support diverse solution typesPlatform mindset: you build for stability, scalability, and long-term maintainabilityStrong communication and collaboration skills – able to work cross-functionally with Data Scientists, DevOps, and Product teamsNice-to-HaveExperience working with both AI/MLExperience scaling low-latency / real-time systemsFamiliarity with A/B testing, canary release, and shadow deployment strategiesProduct-oriented mindset: you build systems that others can easily adopt and extend
No requirement for relevant working experience

Cake Job Search

Join Cake now! Search tens of thousands of job listings to find your perfect job.