Cake 找工作

进阶搜寻
Off
Taiwan
公司介紹 我們的客戶是一家台灣知名上市櫃遊戲公司,成立超過30年,目前市值高達2000多億,躋身台灣百大企業之列。以開發創新電子遊戲聞名,公司擁有多款膾炙人口的經典遊戲作品,深受玩家喜愛。 目前正積極進行數位轉型,打造全球級雲端遊戲生態系統,提供玩家更流暢、更優質的遊戲體驗。公司提供穩定且有競爭力的薪資福利,完善的職涯發展路徑,以及充滿創意與挑戰的工作環境。 工作職責 擔任資深後端工程師,您將肩負以下重要任務: 重構與改進現有系統架構,強化系統穩定性與可擴展性 規劃與實施自動化部署流程,開發與整合CI/CD工具鏈 執行資料庫效能最佳化,規劃資源配置與優化成本結構 導入與推動DevOps/DevSecOps文化與技術實踐 設計與開發大數據分析平台,支援營運策略與玩家行為分析 協助規劃災難復原機制,參與系統韌性測試與資安防禦演練 協調跨功能團隊合作,確保技術解決方案符合業務需求 主導新服務系統架構評估與設計,把關技術方案品質 技術環境 您將在以下現代化技術生態中工作: 核心語言:Go (Golang)、Python、Shell Script 資料儲存:MS-SQL、BigQuery、Redis 訊息系統:Kafka 容器技術:Docker、Kubernetes、GKE、Helm 自動化部署:Jenkins、GitLab CI、ArgoCD 雲端服務:主要採用GCP,輔以AWS、Azure 監控系統:Prometheus、Grafana、ELK Stack
Python
Golang
DevOps
120万 ~ 250万 TWD / 年
需具备 3 年以上工作经验
不需负担管理责任
・與產品、風控、運營團隊協作,針對業務需求定義資料模型與監控指標・建置 ETL 流程,收集與清洗來自平台的行為數據(如下注記錄、轉碼、點擊行為)・開發與維護異常偵測模型(如洗碼對打、機器人行為、套利用戶)・利用機器學習或統計模型預測玩家留存、LTV、流失風險・設計風控策略,提升平台資金與行爲風險控制能力・定期產出分析報告,提出可行的產品或營運優化建議
Spark
Redshift
Python
5万 ~ 12万 TWD / 月
需具备 3 年以上工作经验
管理人数未定
以「釋放製造業的潛力」為使命,致力於推動製造業的數據平台產品。 2022 年透過機器學習等多種技術,將製造業中極為重要的圖面數據進行結構化,並與各類資訊連結,讓圖面能夠作為資訊資產被靈活運用。該產品目前已被日本國內眾多大型製造商與加工公司廣泛採用,成長迅速。 自 2023 年起,我們也開始向海外市場拓展,包括美國、泰國、越南等地,加速推進全球佈局。 未來,我們將不只限於圖面資料,而是致力於透過科技手段,重現與整合製造業的專業知識,實現跨部門、跨企業的整體最適化。【工作內容】 MLOps 工程師將與機器學習工程師密切合作,負責建構、維護與營運能夠穩定提供機器學習與數據科學模型的系統基礎架構。此外,您也將引領建立數據收集管線,並推動數據資產活用。 以下為工作內容示例,實際工作項目不僅限於此,入職後的工作範疇將依據您的技術能力、專業知識與經驗共同討論決定: 建構支援機器學習模型推論的 API 與 Batch 運行環境,及使用 CI/CD 進行部署的系統架構 在正式環境中執行監控、效能調校等提升 Site Reliability 的相關開發 使用 Vertex AI 或 Argo Workflow 建立、維護與運營機器學習處理流程(Pipeline) 最佳化推論與訓練平台的成本效益 與建模人員、平台工程團隊進行有效溝通,並將相關流程進行文件化與制度化 ■ 使用語言 前端:TypeScript 後端:Rust、TypeScript、Python ■ 框架與函式庫 前端:React、Next.js、WebGL、WebAssembly 後端:Rust(axum)、Node.js(Express、Fastify、NestJS)、PyTorch ■ 基礎架構 Google Cloud、Google Kubernetes Engine(GKE)、Anthos Service Mesh ■ 資料庫/資料倉儲 CloudSQL(PostgreSQL)、AlloyDB、Firestore、BigQuery ■ API GraphQL、REST、gRPC ■ 監控與效能追蹤 Datadog、Sentry、Cloud Monitoring ■ 環境建置 Terraform ■ CI/CD GitHub Actions ■ 認證管理 Auth0 ■ 開發工具 GitHub、GitHub Copilot、Figma、Storybook ■ 團隊溝通工具 Slack、Discord、JIRA、Miro、Confluence
jlpt n2
JLPT N1
AI
700万 ~ 1200万 JPY / 年
需具备 3 年以上工作经验
不需负担管理责任
我們正在尋找一位具備數據分析與自動化能力的營運專家,負責建立並優化平台營運流程,提升效率和用戶轉換率。您將透過數據分析、流程自動化與跨部門協作,確保平台的流暢運作,並推動業務成長。 工作內容 用戶成長執行與數據觀察:運用 Mixpanel 和 BigQuery 分析用戶行為,將數據洞察轉化為可執行的營運方案,涵蓋從方案規劃、資源分配到執行監控的全流程。分析並優化用戶轉換漏斗及旅程,透過 A/B 測試提升轉換率和用戶滿意度。監控關鍵指標(KPI),提供數據驅動的營運策略與改進建議。營運流程自動化:使用 n8n 或類似工具,設計並管理自動化工作流程,建立自動化用戶旅程、簡化重複性任務。串接內部系統(如:站內訊息發送工具、E-mail 發送工具、BigQuery 等等),提升整體營運效率。平台管理與協作:負責平台日常營運,確保用戶體驗順暢並符合業務目標。與產品、技術團隊緊密合作,共同推動功能優化。
75万 ~ 110万 TWD / 年
需具备 3 年以上工作经验
不需负担管理责任
🏢 公司介紹 我們的客戶是台灣最具規模與影響力的零售集團龍頭,積極拓展多元化的電商平台生態系。作為台灣零售業的標竿企業,該公司持續引領產業創新,近年積極推動全面數位轉型,整合線上線下(O2O)資源,打造台灣最大規模的全通路零售平台。 為什麼加入我們? 產業領導地位:台灣零售業龍頭,擁有穩健發展基礎與龐大數據資產 數位轉型先鋒:目前正全力投入集團電商整合與數位化升級,是參與零售科技革命的絕佳時機 絕佳職涯發展:在數位經濟時代,您的專業能力將直接對數百萬消費者與企業營收產生顯著影響 【工作內容】 你將成為企業數據基礎架構的核心工程師,協助打造能支撐數百萬筆用戶行為與交易資料的即時數據平台: CDP 數據架構設計:規劃資料模型、整合多元來源,提升行銷科技自動化能力 即時與批次資料處理:使用 Kafka、Flink 建構流處理系統;以 Airflow 調度高效批次流程 數據湖與查詢效能:應用 Delta Lake、Snowflake 提升查詢速度與資料整合效率 資料品質與監控:導入 data observability,確保資料一致性與可追蹤性 跨部門合作與技術領導:與行銷、產品、資料科學團隊密切合作,支援 MLOps 與模型部署 資料合規與治理:設計符合 GDPR、CCPA 的資料管理機制,落實企業資料安全策略 【使用技術】 程式語言:Python / Java / Scala 即時處理:Apache Kafka、Apache Flink 批次處理與排程:Apache Airflow 數據平台:Snowflake、Delta Lake、BigQuery 雲端平台:AWS / GCP / Azure 其他:Databricks、Kubernetes、Docker、CI/CD、MLOps
Kotlin
java
python
120万 ~ 200万 TWD / 年
需具备 5 年以上工作经验
管理 5 ~ 10 人
【Responsibility】負責設計並部署具高可用性、擴展性與安全性的 GCP 雲端架構,確保能滿足業務成長與技術演進需求。檢視並分析現行系統結構,提供效能強化與上雲轉換的建議與實施計畫。熟悉並管理 GCP 運算與網路核心服務,例如 Compute Engine、App Engine、Cloud Functions、VPC、Cloud Interconnect、Cloud Armor 等,確保基礎環境穩定運作。擅長建置雲端資料解決方案,包含 Cloud SQL、Cloud Spanner、Firestore、BigQuery 等 GCP 資料相關服務的規劃與效能優化。導入 Infrastructure as Code(IaC)流程,運用 Terraform、Deployment Manager 等工具進行資源自動化部署與版本控管。建立完善的監控與告警架構,使用 Cloud Monitoring、Cloud Logging 等服務確保系統效能穩定與資安合規,並能獨立進行故障診斷與效能調校。協助規劃並落實 AI/ML 解決方案,包含應用 Vertex AI、Vision AI、Gemini API 等工具整合智慧功能至產品或流程中。熟練操作 AutoML、BigQuery ML 等工具,進行模型訓練、部署與監控管理,強化機器學習生命周期管理能力。作為技術顧問角色,支援客戶解決複雜問題,並協調內外部團隊資源,促進專案順利推進。持續追蹤 GCP 生態系最新技術與服務更新,並將實務經驗轉化為可複製的最佳實踐應用至團隊中。
GCP
Cloud Platform
Cloud Infrastructure
100万 ~ 150万 TWD / 年
需具备 2 年以上工作经验
不需负担管理责任
🏢 公司介紹 我們的客戶是台灣最具規模與影響力的零售集團龍頭,積極拓展多元化的電商平台生態系。作為台灣零售業的標竿企業,該公司持續引領產業創新,近年積極推動全面數位轉型,整合線上線下(O2O)資源,打造台灣最大規模的全通路零售平台。 為什麼加入我們? 產業領導地位:台灣零售業龍頭,擁有穩健發展基礎與龐大數據資產 數位轉型先鋒:目前正全力投入集團電商整合與數位化升級,是參與零售科技革命的絕佳時機 絕佳職涯發展:在數位經濟時代,您的專業能力將直接對數百萬消費者與企業營收產生顯著影響 工作內容介紹 領導團隊:帶領資料科學家與資料工程師團隊,訂定技術目標,打造以成長與創新為核心的團隊文化。 技術路線圖:規劃並執行資料科學與AI技術策略,導入機器學習平台與雲端資料解決方案,確保系統高效與可擴展。 跨部門協作:與工程、行銷與產品團隊合作,將業務需求轉化為數據驅動的解決方案,推動個人化推薦與預測分析專案。 資料合規:確保資料處理流程符合隱私與合規要求,建立安全且穩健的資料管線。 專案管理:監督資料蒐集、建模與部署流程,確保專案成果能有效落地並創造商業價值。 使用的技術 程式語言:Python、R、Java 雲端平台:AWS、Google Cloud Platform(BigQuery)、Azure(Redshift、Databricks) 大數據技術:Spark、Hadoop、Airflow、AWS Data Pipeline 機器學習框架:TensorFlow、PyTorch、MLflow、Kubeflow 容器與CI/CD:Kubernetes、Docker 其他:ETL/ELT流程、敏捷開發(Scrum/Kanban)、A/B測試、CDP與MarTech整合
CDP
Recommendation System
NLP
180万 ~ 280万 TWD / 年
需具备 10 年以上工作经验
管理 5 ~ 10 人
產業類別: 儲配/運輸物流 職責要求 1.規劃企業資料架構藍圖(Data Architecture Blueprint) 2.設計資料模型、資料流(Data Flow)、資料倉儲(DWH)、資料湖(Data Lake)等整體架構 3.定義資料標準(Data Standard)、資料字典、資料治理策略 4.建立高效的資料平台與治理機制 5.規劃與導入 Metadata、Data Lineage、 Master Data Management 6.管控資料品質(DQ)、一致性與安全權限 7.跨部門溝通與需求分析,與產品、工程、數據科學、業務單位合作,轉化需求為技術規格 8.協助制定資料相關的 SLA、成本控制與最佳實務 9.導入雲端資料架構與最佳化 10.熟悉 AWS / Azure / GCP 等雲端平台 11.導入 Lakehouse、Streaming、ETL/ELT Pipeline 方案 12.技術導入與架構決策 13.評估並導入資料平台工具(Snowflake、BigQuery、Redshift、Databricks…) 14.針對資料量成長制定可擴展架構策略
雲端架構
資料架構
資料建模
100万 ~ 120万 TWD / 年
需具备 5 年以上工作经验
不需负担管理责任
【關於PropTech數位人才招募計劃】 信義企業集團的各項產品與計畫正融入大數據、機器學習與人工智慧等應用,我們的數位團隊具有豐沛的研發能量,截至目前為止,已累積有40多件發明專利與20件設計專利,大幅領先於房仲相關產業者;並持續致力於「房地產科技創新」與「數位居住生活」兩大面向,以創新智能工具,為使用者提供超乎想像的服務體驗。 我們希望讓居住在這片土地上的人們,在「不動產交易買賣」與「居住生活日常」有更好的保障與體驗,也期待你與我們一起,加速這個改變。 這裡匯聚了40年的集團產業資源,以及多元化的人才;接下來,想邀請你加入,與我們一起創造超乎想像的體驗,成就即將到來的未來! 【職務簡介】 1.規劃與建置企業級數據平台架構(Azure Data Platform:Databricks、Data Factory、Fabric、Power BI),確保系統穩定性、擴展性與長期可持續發展。 2.設計並優化 AI 與 Data Services(Function App、SQL MI、API、Batch 等),支援 AI 模型部署、應用服務化與業務落地。 3.規劃跨雲數據與 AI 服務整合(Azure、GCP/Vertex AI、BigQuery ML),確保跨平台數據流通與應用效能。 4.建立並推動公司數據與 AI 架構標準,包含數據治理、安全合規、效能優化與成本控管。 5.設計高效率的 ETL / ELT 資料處理流程,確保數據整合的正確性、即時性與最佳化。
Python
MSSQL
Azure
面议
需具备 3 年以上工作经验
不需负担管理责任
【公司介紹】 我們是一家深耕台灣市場、擁有數百萬活躍用戶的金融科技平台,長期專注於打造整合支付與嵌入式金融服務的數位生態圈。產品服務橫跨線上與線下場景,並持續拓展跨境合作與創新金融應用。 在高速成長與龐大交易量的環境下,數據已成為公司最核心的資產之一。團隊正啟動數據中台與基礎架構升級計畫,期望建立更高擴展性與高可用性的數據平台,支撐未來數年業務成長。 此職位將直屬技術最高主管,參與數據架構與技術策略規劃,能見度高、決策影響力強,對於希望從「工程執行者」邁向「技術與組織塑造者」的數據主管而言,是難得的舞台。 【工作內容】 帶領並培養 Data Engineering 團隊,建立高效且高品質的工程文化 規劃與建置企業級數據中台與資料基礎設施(含即時與批次處理架構) 設計與優化大規模 ETL Pipeline,確保資料準確性與安全性 建構高可用、高擴展的數據平台架構(Cloud + On-Prem 混合環境) 與產品、商業與工程團隊合作,定義數據模型與資料產品架構 推動資料治理、數據目錄與數據品質管理機制 導入與評估新技術,提升效能、穩定度與成本效率 【使用技術】 Programming: Python / Scala / Shell Database: MS SQL / MySQL / ClickHouse / BigQuery Data Processing: PySpark / Kafka / Airflow Cloud: GCP(含 Dataflow 等服務) Architecture: Data Lake / Data Warehouse / CDC / Streaming Visualization: Tableau / Superset 【為什麼值得加入?】 數百萬用戶、巨量交易場景,數據完整且具高度商業價值 直接參與企業數據戰略規劃,非單純維運角色 高層高度信任,具架構決策權與團隊塑造權 在高速成長的 Fintech 領域,打造可長期演進的數據平台 從 0→1 強化數據中台,是能寫進履歷的代表作
Python
GCP
ETL
180万 ~ 230万 TWD / 年
需具备 5 年以上工作经验
管理 1 ~ 5 人

Cake 找工作

加入Cake社群,搜寻上万笔职缺,快速找到适合你的工作。