Cari Lowongan

Advanced filters
Off
Taiwan
・與產品、風控、運營團隊協作,針對業務需求定義資料模型與監控指標・建置 ETL 流程,收集與清洗來自平台的行為數據(如下注記錄、轉碼、點擊行為)・開發與維護異常偵測模型(如洗碼對打、機器人行為、套利用戶)・利用機器學習或統計模型預測玩家留存、LTV、流失風險・設計風控策略,提升平台資金與行爲風險控制能力・定期產出分析報告,提出可行的產品或營運優化建議
Spark
Redshift
Python
50 rb ~ 120 rb TWD / bulan
Diperlukan pengalaman selama 3 tahun
Jumlah staf yang diatur: tidak diketahui
以「釋放製造業的潛力」為使命,致力於推動製造業的數據平台產品。 2022 年透過機器學習等多種技術,將製造業中極為重要的圖面數據進行結構化,並與各類資訊連結,讓圖面能夠作為資訊資產被靈活運用。該產品目前已被日本國內眾多大型製造商與加工公司廣泛採用,成長迅速。 自 2023 年起,我們也開始向海外市場拓展,包括美國、泰國、越南等地,加速推進全球佈局。 未來,我們將不只限於圖面資料,而是致力於透過科技手段,重現與整合製造業的專業知識,實現跨部門、跨企業的整體最適化。【工作內容】 MLOps 工程師將與機器學習工程師密切合作,負責建構、維護與營運能夠穩定提供機器學習與數據科學模型的系統基礎架構。此外,您也將引領建立數據收集管線,並推動數據資產活用。 以下為工作內容示例,實際工作項目不僅限於此,入職後的工作範疇將依據您的技術能力、專業知識與經驗共同討論決定: 建構支援機器學習模型推論的 API 與 Batch 運行環境,及使用 CI/CD 進行部署的系統架構 在正式環境中執行監控、效能調校等提升 Site Reliability 的相關開發 使用 Vertex AI 或 Argo Workflow 建立、維護與運營機器學習處理流程(Pipeline) 最佳化推論與訓練平台的成本效益 與建模人員、平台工程團隊進行有效溝通,並將相關流程進行文件化與制度化 ■ 使用語言 前端:TypeScript 後端:Rust、TypeScript、Python ■ 框架與函式庫 前端:React、Next.js、WebGL、WebAssembly 後端:Rust(axum)、Node.js(Express、Fastify、NestJS)、PyTorch ■ 基礎架構 Google Cloud、Google Kubernetes Engine(GKE)、Anthos Service Mesh ■ 資料庫/資料倉儲 CloudSQL(PostgreSQL)、AlloyDB、Firestore、BigQuery ■ API GraphQL、REST、gRPC ■ 監控與效能追蹤 Datadog、Sentry、Cloud Monitoring ■ 環境建置 Terraform ■ CI/CD GitHub Actions ■ 認證管理 Auth0 ■ 開發工具 GitHub、GitHub Copilot、Figma、Storybook ■ 團隊溝通工具 Slack、Discord、JIRA、Miro、Confluence
jlpt n2
JLPT N1
AI
7 jt ~ 12 jt JPY / tahun
Diperlukan pengalaman selama 3 tahun
Tidak ada tanggung jawab manajemen
我們正在尋找一位具備數據分析與自動化能力的營運專家,負責建立並優化平台營運流程,提升效率和用戶轉換率。您將透過數據分析、流程自動化與跨部門協作,確保平台的流暢運作,並推動業務成長。 工作內容 用戶成長執行與數據觀察:運用 Mixpanel 和 BigQuery 分析用戶行為,將數據洞察轉化為可執行的營運方案,涵蓋從方案規劃、資源分配到執行監控的全流程。分析並優化用戶轉換漏斗及旅程,透過 A/B 測試提升轉換率和用戶滿意度。監控關鍵指標(KPI),提供數據驅動的營運策略與改進建議。營運流程自動化:使用 n8n 或類似工具,設計並管理自動化工作流程,建立自動化用戶旅程、簡化重複性任務。串接內部系統(如:站內訊息發送工具、E-mail 發送工具、BigQuery 等等),提升整體營運效率。平台管理與協作:負責平台日常營運,確保用戶體驗順暢並符合業務目標。與產品、技術團隊緊密合作,共同推動功能優化。
750 rb ~ 1.1 jt TWD / tahun
Diperlukan pengalaman selama 3 tahun
Tidak ada tanggung jawab manajemen
Role Scope Own everything above the Edge AI runtime: cloud backend, web dashboards, public-facing venue displays, smartwatch apps, and the incident workflow engine Connect AI detection to human response, resolution, and audit — the full incident closure loop Not supporting an existing team — building the platform that turns edge AI output into an operational product from scratch Work directly with CEO and CTO to define what to build, then go build it First 6 Months — Deliverables Q1: User Dashboard — Multi-site event management portal with traffic trend analytics, alert accuracy metrics, and evidence package review (snapshots, video, timeline, zone overlay) Venue Display — Public-facing digital signage for facility lobbies showing real-time AI monitoring status, occupancy data, and promotional content rotation. Signage design language, not an ops console Q2: SmartWatch App — Cross-platform wearable app for alert acknowledgment, dispatch, and case closure. One-handed operation, under 2 seconds per critical action Emergency Workflow Engine — Bidirectional event lifecycle engine implementing an 8-state Case Workflow State Machine (Queued → Needs Confirm → Validated → Rejected → Dispatched → Escalated → Closed → Audit Pending) with SLA timers, timeout escalation, and dispatch routing Backend Build Event Ingest API receiving structured JSON and evidence payloads from edge devices via IPSec/WireGuard VPN Implement GCP Pub/Sub event streaming with dual storage: BigQuery for time-series analytics, Postgres for operational state Develop Workflow State Machine covering the full 8-state case lifecycle with configurable SLA timers, timeout escalation triggers, and dispatch routing logic Build multi-tenant management layer: sites, users, roles, and permissions Implement notification hub spanning LINE, email, webhook, and smartwatch push Expose RESTful and WebSocket APIs serving all three client surfaces (dashboard, display, watch) Frontend Web Dashboard — Real-time event feeds, historical analytics charts, event detail views with evidence packages, and a CMS module for Venue Display content management Venue Display — Large-screen optimized rendering with automatic offline fallback and local caching when cloud connectivity drops SmartWatch App — Cross-platform compatibility targeting Wear OS native or web-based approach; technology choice is yours to make and defend Infrastructure Manage GCP project end-to-end: Cloud Run, Pub/Sub, BigQuery, Cloud SQL, Cloud Storage Build and maintain CI/CD pipelines for all cloud services Implement fleet-wide monitoring, alerting, and health dashboards across all deployed sites Handle OTA content delivery for Venue Display Tech Stack Edge (interface with, not own) — NVIDIA Jetson Orin Nano, DeepStream, YOLO + VLM pipeline. Pushes structured event JSON + evidence packages via IPSec/WireGuard VPN Cloud / Backend — GCP (Pub/Sub, Cloud SQL/Postgres, BigQuery, Cloud Run). Python or Node.js. WebSocket for real-time streaming Frontend — React or Vue (pick one and commit). Data visualization library. Responsive dashboard + signage-optimized display Wearable — Wear OS native or cross-platform. BLE/WiFi connectivity within facility networks Requirements — Must Have 3+ years shipping production web applications end-to-end (backend + frontend + deployment) Track record of building cloud backends from scratch, not just adding features to existing systems Hands-on experience with at least one major cloud platform: GCP, AWS, or Azure (we use GCP) Real-time systems experience: WebSocket, event-driven architecture, Pub/Sub or message queues Relational database design and query optimization (Postgres preferred) Proficiency in both Python and JavaScript/TypeScript At least one shipped mobile or wearable application in production Requirements — Strongly Preferred Workflow or state machine system development (ticket systems, dispatch engines, approval flows — anything with lifecycle states and timeout logic) Video/media handling: HLS streaming, thumbnail generation, evidence packaging Prior experience owning a full product surface at a startup with fewer than 10 people GCP-specific hands-on: Pub/Sub, Cloud Run, BigQuery Mandarin fluency for internal communication + English technical reading proficiency Requirements — Nice to Have IoT or edge integration experience (MQTT, device management, OTA) Digital signage or kiosk application development Background in safety/compliance systems, incident management, or operational workflows
50 rb ~ 90 rb TWD / bulan
Diperlukan pengalaman selama 3 tahun
Tidak ada tanggung jawab manajemen
我們正在尋找一位具備用戶成長思維的 Growth Marketing Specialist,負責 SWAG 的用戶啟動漏斗 (Activation Funnel)、以及 Referral Program (MGM) 的策略與執行。你將與營運、產品、數據團隊合作,設計用戶行為、流程自動化,並透過 A/B 測試與站外推廣,打造可擴張的用戶成長飛輪。 工作內容 新用戶成長優化與行銷、營運團隊合作,透過數據發現斷點,並解決問題,提升從站外到 Landing Page 到註冊、付費的轉化率。設計並管理自動化工作流程,串接內部系統建立自動化用戶旅程、簡化重複性任務(n8n、站內通知、EDM、Bigquery 等工具),提升整體營運效率。​​Referral 機制設計與推廣建立系統邏輯,包含獎勵機制、發放規則、數據追蹤邏輯,確保可擴張性同時避免異常作弊行為。針對不同用戶分群設計差異化誘因,提升推薦參與率與轉化率。策劃站外曝光,透過各種行銷形式、渠道推動大型推薦挑戰活動(如邀請賽、等級獎勵、線上活動等)以擴大用戶推薦基數。持續監控核心指標(分享率、邀請轉化率、Referral LTV、CAC 等),以數據驅動決策。協作實驗迭代與營運團隊協作,規劃並執行新用戶轉化、及推薦活動的 A/B 測試,驗證呈現方式、入口位置、用戶體驗、對參與率的影響。與數據分析師合作,建立自動化報表與 Mixpanel 儀表板,追蹤推薦成效與漏斗表現。與產品團隊協作,依據實驗結果持續迭代,建立 Growth SOP。
730 rb ~ 900 rb TWD / tahun
Diperlukan pengalaman selama 3 tahun
Tidak ada tanggung jawab manajemen
產業類別: 儲配/運輸物流 職責要求 1.規劃企業資料架構藍圖(Data Architecture Blueprint) 2.設計資料模型、資料流(Data Flow)、資料倉儲(DWH)、資料湖(Data Lake)等整體架構 3.定義資料標準(Data Standard)、資料字典、資料治理策略 4.建立高效的資料平台與治理機制 5.規劃與導入 Metadata、Data Lineage、 Master Data Management 6.管控資料品質(DQ)、一致性與安全權限 7.跨部門溝通與需求分析,與產品、工程、數據科學、業務單位合作,轉化需求為技術規格 8.協助制定資料相關的 SLA、成本控制與最佳實務 9.導入雲端資料架構與最佳化 10.熟悉 AWS / Azure / GCP 等雲端平台 11.導入 Lakehouse、Streaming、ETL/ELT Pipeline 方案 12.技術導入與架構決策 13.評估並導入資料平台工具(Snowflake、BigQuery、Redshift、Databricks…) 14.針對資料量成長制定可擴展架構策略
雲端架構
資料架構
資料建模
1 jt ~ 1.2 jt TWD / tahun
Diperlukan pengalaman selama 5 tahun
Tidak ada tanggung jawab manajemen
【公司介紹】 我們是一家深耕台灣市場、擁有數百萬活躍用戶的金融科技平台,長期專注於打造整合支付與嵌入式金融服務的數位生態圈。產品服務橫跨線上與線下場景,並持續拓展跨境合作與創新金融應用。 在高速成長與龐大交易量的環境下,數據已成為公司最核心的資產之一。團隊正啟動數據中台與基礎架構升級計畫,期望建立更高擴展性與高可用性的數據平台,支撐未來數年業務成長。 此職位將直屬技術最高主管,參與數據架構與技術策略規劃,能見度高、決策影響力強,對於希望從「工程執行者」邁向「技術與組織塑造者」的數據主管而言,是難得的舞台。 【工作內容】 帶領並培養 Data Engineering 團隊,建立高效且高品質的工程文化 規劃與建置企業級數據中台與資料基礎設施(含即時與批次處理架構) 設計與優化大規模 ETL Pipeline,確保資料準確性與安全性 建構高可用、高擴展的數據平台架構(Cloud + On-Prem 混合環境) 與產品、商業與工程團隊合作,定義數據模型與資料產品架構 推動資料治理、數據目錄與數據品質管理機制 導入與評估新技術,提升效能、穩定度與成本效率 【使用技術】 Programming: Python / Scala / Shell Database: MS SQL / MySQL / ClickHouse / BigQuery Data Processing: PySpark / Kafka / Airflow Cloud: GCP(含 Dataflow 等服務) Architecture: Data Lake / Data Warehouse / CDC / Streaming Visualization: Tableau / Superset 【為什麼值得加入?】 數百萬用戶、巨量交易場景,數據完整且具高度商業價值 直接參與企業數據戰略規劃,非單純維運角色 高層高度信任,具架構決策權與團隊塑造權 在高速成長的 Fintech 領域,打造可長期演進的數據平台 從 0→1 強化數據中台,是能寫進履歷的代表作
Python
GCP
ETL
1.8 jt ~ 2.3 jt TWD / tahun
Diperlukan pengalaman selama 5 tahun
Mengatur 1-5 staf
我們的研發團隊正在尋找充滿熱情與創新的研發工程師!如果你對於新技術研發充滿好奇,看到問題就想寫程式來解決,那麼這個機會正是為你量身打造的。 研發部任務: 功能創新:積極參與功能規劃與創新,不斷推動技術進步。流程改善:工作流程改善,移除多餘階段。性能提升:致力於系統效能優化,確保使用者獲得最佳體驗。系統維護:持續優化與維護現有內部系統架構,保障系統穩定。 研發部在幹嘛:https://gamma.app/docs/-km76anm6whz1jjb獎勵機制:年終績效分紅獎金,每年有調薪機會。 我們在用的 Tech Stack: 後端:PHP (Laravel) 前端:Vue 資料:MariaDB/MySQL、Redis、BigQuery 版控:gitServ:Nginx、Linux、Docker、Kubernetes 雲端:AWS、GCP 我們期待你的加入,如果你具備: CS 知識有一定的理解。兩年以上程式開發經驗,熟悉 PHP。理解 MVC 架構,特別是 Laravel 框架。SQL資料庫。Linux 操作。git、Docker。使用 AI 工具協助開發經驗。 加分條件: 大學/研究所畢業資工/電機/資管相關科系對程式語言沒有限制,會另外一種程式語言 python,javascript,或其他程式語言。喜歡自己研究新技術,看到問題就想用程式解。 ** 利用 AI 工具加速工作流。**參與技術社群與活動。 研發工程師成長 Roadmap: 初階/初心 依據研發專案需求,進行新技術的研究、開發與測試 設計並執行實驗,驗證技術方案與產品概念的可行性 與跨部門團隊協作,參與技術評估與需求分析 撰寫及維護技術文件與報告 中階/實踐 具備初階工程師所需能力,並額外具備 針對產品或系統架構提出技術方案與創新構想,並協助團隊落地實現 負責產品與系統的性能分析及優化 主導跨部門協作,推動研發計畫如期達成目標 高階/賦能 具備中階工程師所需能力,並額外具備 指導團隊成員與新進同仁,協助提升技術能力與專業素養 持續關注並研究前沿技術趨勢,發掘具商業價值的技術方向 推動創新產品或技術的開發與落地 我們提供豐富的資源與指導,幫助你在成長路上不斷進步。如果你準備好迎接挑戰加入我們的研發團隊,歡迎來聊聊! 研發部工程師的真實日常:https://www.linkedin.com/feed/update/urn:li:activity:7353375467497750528Addcn LinkedIn : https://www.linkedin.com/company/addcntw 【 夥伴福利 】 • 你/妳可以申請公費買進修相關的書藉、課程 • 每年學習進修補助 1 萬元 • 視表現調薪(正常情況一年至少1次) • 定期國內/國外員工旅遊,澳洲、泰國、日本、新加玻、馬來西亞 • 生日禮金、三節禮金、年終績效分紅獎金,希望我們的成長可以分享給你/妳更多 • 基本的勞保、健保、眷屬團保,一定要有,另有結婚補助、生育補助 • 週休二日,颱風假、政府放假,女員工生理假、產假,男員工陪產假! • 重視每位員工的健康狀況,定期免費員工健康檢查 • 扁平化制度,每個人都能做好自我管理、簡單直效的溝通 • 舒適的工作環境,免費的零食、飲料供應 • 擁有開心的工作氣氛及不定期的下午茶 • 我們喜愛運動,籃球社、羽球社,自行報名參加,並有定期大型運動會比賽!
PHP
Laravel
241台灣新北市三重區
700 rb ~ 1 jt TWD / tahun
Diperlukan pengalaman selama 2 tahun
Tidak ada tanggung jawab manajemen
【關於PropTech數位人才招募計劃】 信義企業集團的各項產品與計畫正融入大數據、機器學習與人工智慧等應用,我們的數位團隊具有豐沛的研發能量,截至目前為止,已累積有40多件發明專利與20件設計專利,大幅領先於房仲相關產業者;並持續致力於「房地產科技創新」與「數位居住生活」兩大面向,以創新智能工具,為使用者提供超乎想像的服務體驗。 我們希望讓居住在這片土地上的人們,在「不動產交易買賣」與「居住生活日常」有更好的保障與體驗,也期待你與我們一起,加速這個改變。 這裡匯聚了40年的集團產業資源,以及多元化的人才;接下來,想邀請你加入,與我們一起創造超乎想像的體驗,成就即將到來的未來! 【職務簡介】 1.規劃與建置企業級數據平台架構(Azure Data Platform:Databricks、Data Factory、Fabric、Power BI),確保系統穩定性、擴展性與長期可持續發展。 2.設計並優化 AI 與 Data Services(Function App、SQL MI、API、Batch 等),支援 AI 模型部署、應用服務化與業務落地。 3.規劃跨雲數據與 AI 服務整合(Azure、GCP/Vertex AI、BigQuery ML),確保跨平台數據流通與應用效能。 4.建立並推動公司數據與 AI 架構標準,包含數據治理、安全合規、效能優化與成本控管。 5.設計高效率的 ETL / ELT 資料處理流程,確保數據整合的正確性、即時性與最佳化。
Python
MSSQL
Azure
Negotiable
Diperlukan pengalaman selama 3 tahun
Tidak ada tanggung jawab manajemen
公司介紹 這是一家深耕台灣市場、具高度用戶滲透率的 FinTech 科技公司,長期處於高流量、高交易頻率的業務場景。產品服務已融入日常生活與金融行為,資料規模與複雜度持續成長。 目前公司正進入 數據基礎建設與治理升級的關鍵階段,高層明確將「數據驅動決策」視為下一階段成長核心,並投入資源打造更穩定、可擴展的資料平台,讓數據真正成為產品與營運的決策引擎。 這個角色將站在 公司級數據戰略中心,不只是管理團隊,而是實際參與並影響整體商業方向。 工作內容 帶領資料應用部門(資料工程、資料分析、BI / Data Science 團隊),管理約 5–10 位成員 規劃並推動 公司級 Data Platform(Data Lake / DWH / ETL / Streaming) 與工程與系統架構團隊協作,確保資料系統的 穩定性、可用性與擴展性 審視並優化資料流、事件系統、Schema 與整體資料架構設計 建立 資料治理、品質控管、權限與統計口徑制度 建構指標、Dashboard 與分析框架,支援 產品、營運、行銷與管理決策 推動 A/B Test、數據實驗與行為分析,讓決策有數據依據 作為跨部門橋樑,協調技術與商業需求,推動策略落地 使用的技術 Data Platform:Data Lake、Data Warehouse、ETL / ELT、Streaming Big Data / Pipeline:Spark、Kafka、Airflow Data Ops:Pipeline 監控、版本控管、CI/CD Cloud / Hybrid:BigQuery、Snowflake(地端為主、雲端為輔) BI / Analytics:指標設計、Dashboard、實驗分析
Spark
Snowflake
Kafka
2 jt ~ 3.5 jt TWD / tahun
Diperlukan pengalaman selama 10 tahun
Mengatur 5-10 staf

Cari Kerja di Cake

Gabung di Cake sekarang! Cari puluhan ribu lowongan kerja untuk mendapatkan pekerjaan idaman.