Cake Job Search

Advanced filters
Off
Taiwan
Data Engineer
Logo of Mynavi 台灣邁那比股份有限公司.
以「釋放製造業的潛力」為使命,致力於推動製造業的數據平台產品。 2022 年透過機器學習等多種技術,將製造業中極為重要的圖面數據進行結構化,並與各類資訊連結,讓圖面能夠作為資訊資產被靈活運用。該產品目前已被日本國內眾多大型製造商與加工公司廣泛採用,成長迅速。 自 2023 年起,我們也開始向海外市場拓展,包括美國、泰國、越南等地,加速推進全球佈局。 未來,我們將不只限於圖面資料,而是致力於透過科技手段,重現與整合製造業的專業知識,實現跨部門、跨企業的整體最適化。【工作內容】 MLOps 工程師將與機器學習工程師密切合作,負責建構、維護與營運能夠穩定提供機器學習與數據科學模型的系統基礎架構。此外,您也將引領建立數據收集管線,並推動數據資產活用。 以下為工作內容示例,實際工作項目不僅限於此,入職後的工作範疇將依據您的技術能力、專業知識與經驗共同討論決定: 建構支援機器學習模型推論的 API 與 Batch 運行環境,及使用 CI/CD 進行部署的系統架構 在正式環境中執行監控、效能調校等提升 Site Reliability 的相關開發 使用 Vertex AI 或 Argo Workflow 建立、維護與運營機器學習處理流程(Pipeline) 最佳化推論與訓練平台的成本效益 與建模人員、平台工程團隊進行有效溝通,並將相關流程進行文件化與制度化 ■ 使用語言 前端:TypeScript 後端:Rust、TypeScript、Python ■ 框架與函式庫 前端:React、Next.js、WebGL、WebAssembly 後端:Rust(axum)、Node.js(Express、Fastify、NestJS)、PyTorch ■ 基礎架構 Google Cloud、Google Kubernetes Engine(GKE)、Anthos Service Mesh ■ 資料庫/資料倉儲 CloudSQL(PostgreSQL)、AlloyDB、Firestore、BigQuery ■ API GraphQL、REST、gRPC ■ 監控與效能追蹤 Datadog、Sentry、Cloud Monitoring ■ 環境建置 Terraform ■ CI/CD GitHub Actions ■ 認證管理 Auth0 ■ 開發工具 GitHub、GitHub Copilot、Figma、Storybook ■ 團隊溝通工具 Slack、Discord、JIRA、Miro、Confluence
jlpt n2
JLPT N1
AI
7M ~ 12M JPY / year
3 years of experience required
No management responsibility
Logo of Mynavi 台灣邁那比股份有限公司.
公司主要從事SES(系統工程服務)事業,目前手上擁有許多與AI領域相關的案件。 預計未來AI相關需求將持續成長,目前正處於事業擴展的成長階段。 即使目前尚無AI相關經驗,只要具備工程師經驗,也有許多案件可以參與。 我們積極招募有志於投入AI領域、希望累積經驗、提升技能與市場價值的人才! 【案件範例】 ・生成式AI基礎平台開發支援 ・對話型AI的研究/開發/導入 ・銷售管理系統的API伺服器建置 ・雲端與銷售管理系統的整合開發 ・打造在元宇宙空間中進行互動的應用程式開發 【工作內容範例】 ・大型語言模型(LLM)的標註工具開發 ・網站爬蟲系統開發 ・以後端為主的全端開發 ・探索將生成式AI應用於既有服務的方式 ・利用現有的基礎模型(LLM)進行微調與相關研究/開發
Python
JLPT N1
AI
4M ~ 8M JPY / year
3 years of experience required
No management responsibility
Logo of Google.
Google welcomes people with disabilities.Minimum qualifications: Bachelor's degree or equivalent practical experience. 5 years of experience using Python (Pandas, NumPy) or Java to develop data processing tools or automation scripts. Experience in managing data workflows using tools like Airflow, dbt, or Prefect. Experience in building and querying data within BigQuery, Snowflake, or Redshift environments. Experience in developing operational dashboards using Looker, Tableau, or Power BI. Preferred qualifications: Experience working with semiconductor manufacturing data or large-scale industrial datasets. Ability to manage complex data exchanges and integration workflows with external foundry or assembly partners. Ability to identify manufacturing anomalies and to explain architectures to non-technical stakeholders. About the jobA problem isn’t truly solved until it’s solved for all. That’s why Googlers build products that help create opportunities for everyone, whether down the street or across the globe. As a Program Manager at Google, you’ll lead complex, multi-disciplinary projects from start to finish — working with stakeholders to plan requirements, manage project schedules, identify risks, and communicate clearly with cross-functional partners across the company. Your projects will often span offices, time zones, and hemispheres. It's your job to coordinate the players and keep them up to date on progress and deadlines. As a Machine Learning Data and Analytics Engineer, you will be the architect of manufacturing intelligence. You will design, build, and maintain the data infrastructure that transforms fragmented information from the global partners into a cohesive, high-performance data ecosystem. Your work will directly enable the operations team to monitor production health, optimize yields, and make data-driven decisions in real-time.The Data Center team designs and operates some of the most sophisticated electrical and HVAC systems in the world. We are an upbeat, creative, team-oriented group of engineers committed to building and operating powerful data centers.Responsibilities Design and deploy scalable pipelines to manage high-volume manufacturing data, including wafer maps, test results, and quality reports. Build automated tools to clean and normalize disparate data formats from foundry and assembly partners, ensuring a single source of truth. Create and maintain intuitive visualizations and high-impact dashboards to monitor critical KPIs and production health metrics. Develop and optimize data schemas that support high-speed ingestion and complex investigative querying for real-time decision-making. Partner with Operations and Engineering teams to translate business requirements into technical solutions while ensuring platform reliability and performance. Google is proud to be an equal opportunity workplace and is an affirmative action employer. We are committed to equal employment opportunity regardless of race, color, ancestry, religion, sex, national origin, sexual orientation, age, citizenship, marital status, disability, gender identity or Veteran status. We also consider qualified applicants regardless of criminal histories, consistent with legal requirements. See also Google's EEO Policy and EEO is the Law. If you have a disability or special need that requires accommodation, please let us know by completing our Accommodations for Applicants form.
Negotiable
No requirement for relevant working experience
Logo of 街口電子支付股份有限公司.
【About This Role】We are seeking a pragmatic AI Engineer to join our product and engineering team to build and deploy our innovative shopping agent platform. This is a hands-on role focused on leveraging existing AI technologies, frameworks, and models to create production-ready conversational commerce solutions.You'll be working at the intersection of AI/ML, payment systems, and e-commerce to deliver seamless shopping experiences to JKOPay's 7 million users.【What You’ll Do】AI Implementation Integration◆ Integrate and fine-tune large language models for conversational commerce use cases◆ Design conversation flows and dialogue management systems for shopping interactions◆ Implement product search and recommendation systems◆ Build data pipelines for training data collection and model improvementOptimize Chat Quality◆ Monitor AI model performance, accuracy, and user satisfaction metrics◆ Optimize model inference speed and cost efficiency in cloud environments◆ Implement A/B testing frameworks for conversation flow optimization◆ Collaborate with product team on feature requirements and user experience improvementsCross-functional Collaboration◆ Work closely with backend engineers on API integrations and system architecture◆ Partner with product managers to deliver the solutions◆ Support QA team in testing AI-driven features and edge cases
LLM
AI & Machine Learning
Negotiable
1 years of experience required
No management responsibility
Logo of 統一超商股份有限公司(7-ELEVEN).
[本職缺僅接受104網站投遞] 請至統一超商104招募頁面投遞個人履歷表,路徑指引:https://www.104.com.tw/job/8p2a1?jobsource=google【工作內容】1. 設計資料模型與數據建模轉化 (Data Modeling):主導 數據架構規劃與 Medallion 模型設計,定義企業級 Golden Table 規範,確保模型具備高度擴展性以支援 AI/ML 應用。2. BI 報表與儀表板開發:根據專案需求,在 Databricks 上以 Python / SQL 建置視覺化儀表板,並主動優化報表讀取效能。3. CDP 數據維護:主導 CDP 核心邏輯設計,包含用戶 ID Mapping、行為標籤化及多通路歸因邏輯,建構單一用戶視角 (Single Customer View)。4. 數據品質監控:維護數據管道 (Pipeline) 的日常運作,執行數據驗證,確保報表數據一致性。5. 跨部門協作/角色:參與業務需求討論,將「商業問題」轉化為「數據需求」,並協助資料科學家準備模型訓練所需的特徵資料。6. 推動資料治理:制定並推動資料治理政策與標準,進行元數據管理/權限設計/血緣管理,確保資料資產的管理做法符合最佳實踐。【專業能力】【Required】1. Python:能運用物件導向 (OOP) 與 Functional Programming 設計模式編寫具備可擴展性、易於維護且可測試 (Testable) 的程式碼。2. SQL:熟悉 Join 邏輯、Window Functions 以及效能調優。3. 數據模型經驗:具備 Data Modeling (Star Schema / Snowflake Schema) 實務設計經驗。4. Databricks / Spark 實務:Databricks 平台操作與實務經驗,能在 Notebook 或 Workflows 中管理資料流程,並深度理解資料分層(Bronze/Silver/Gold)的意義,能根據資料成熟度將資料放置在正確的資料分層,並從中運用 PySpark 或 Spark SQL 處理大規模資料轉換。5. 自動化調度:具備至少一種 排程編排工具(Databricks Workflows 或 Airflow)的基礎經驗,能編排並優化複雜的任務排程。6. 視覺化工具:具備至少一種 BI 工具經驗(Databricks Dashboard / Power BI / Tableau / Looker),具備基礎的視覺化設計美感,知道如何清楚呈現 KPI。【加分條件】【Nice to have】1. 零售或電商領域知識:了解零售/電商常見指標(如:AOV、轉化率、歸因模型)。2. 數據管理經驗:曾接觸元數據管理與數據治理相關經驗。3. 雲端經驗:具備至少一種 AWS / GCP / Azure 雲端平台操作基礎。4. CICD:具備 Databricks Asset Bundle / GitHub Actions 經驗,能將數據管道的部署自動化,並導入數據品質監控。▲uniopen團隊在做什麼?https://blog.104.com.tw/the-innovative-integration-of-the-uniopen-team/
50K ~ 120K TWD / month
5 years of experience required
No management responsibility
Logo of 南山人壽保險股份有限公司.
此職務隸屬數位團隊之Beyond Lab Team,歡迎志在AI應用領域者加入 Beyond Lab介紹: Beyond Lab 是南山人壽內部獨立的研發團隊,我們自詡要成為全球金融保險業最會應用AI的團隊。在Beyond Lab工作,我們專注於AI人壽保險流程服務化與價值實現,團隊成員包含全球頂尖AI、資料、雲端、資安、金融科技各領域頂尖人才,團隊甫成立,其研發成果已獲國內外多項大獎項肯定。 工作內容: 運用雲端AI技術,研發保險AI服務,賦能人壽保險全場景業務流程,實現保險公司AI轉型與價值實現。 技能需求: 1.熟悉Python或R,具備開發AI應用場景API與資料分析/處理的能力 2.熟悉Azure或AWS雲端平台,具備架構雲地混合AI服務的能力 我們也鼓勵您透過以下專訪/新聞更加認識Beyond Lab及其成果: 1.用AI開外掛!一窺南山人壽法遵AI智能助理的架構工法(數位時代),https://www.bnext.com.tw/article/80404/nanshanlife202409 2.南山人壽揭加速轉型秘訣,靠企業架構有序轉型(iThome),https://ithome.com.tw/people/167371 3.南山人壽智能客服功能再升級,在NLU結合LLM技術基礎上提供個人化商品推薦服務(iThome),https://ithome.com.tw/news/167490 4.全球壽險業首例,南山人壽一舉摘下Celent國際雙獎,文化、治理、聯隊缺一不可,https://www.bnext.com.tw/article/84020/nanshanlife2025 5.全球首家獲獎壽險公司! 南山人壽榮膺國際大獎Celent「模範風險管理」殊榮,https://www.ctee.com.tw/news/20250624701296-430305 6.犯罪預防電影情節真實上演 南山人壽創新研發「黃金眼AI防詐」模型 用科技預先阻詐,https://www.nanshanlife.com.tw/nanshanlife/news/newscenter/1420
Negotiable
3 years of experience required
No management responsibility
Logo of 南山人壽保險股份有限公司.
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
Negotiable
3 years of experience required
No management responsibility
Logo of 街口電子支付股份有限公司.
【THE ROLE THE TEAM】 As the Data Team Lead at JKOPay, you will take on a leadership role in managing and mentoring the Data Engineering team. You will be responsible for overseeing the design, development, and maintenance of JKOPay’s data systems, including both real-time and batch processing. With JKOPay handling over 3 billion transactions monthly for more than 6 million users in Taiwan, your leadership will be crucial in ensuring data accuracy, scalability, and efficiency. A significant aspect of this role involves infrastructure planning and development. You will lead the team in architecting and optimizing data infrastructures to ensure scalability, high availability, and performance across multiple platforms and environments. Collaborating closely with cross-functional teams, you will guide the implementation of infrastructure solutions that support the rapid growth of JKOPay’s business and evolving data needs. This is a strategic position that will allow you to shape the future of JKOPay's data infrastructure while supporting the growth of the team and organization.【WHY YOU SHOULD BE INTERESTED】 Lead and mentor a team of data engineers in building and maintaining scalable ETL pipelines, ensuring data integrity and security.Drive infrastructure planning and design for data platforms to ensure performance, scalability, and reliability.Collaborate with business and engineering teams to define data requirements, design data models, and drive the development of data products.Lead efforts in optimizing data systems for performance, scalability, and cost-efficiency across multiple environments, including cloud (GCP) and on-premises data centers.Oversee the entire lifecycle of data projects, from conception to deployment, ensuring timely and high-quality delivery.Take ownership of the continuous improvement of JKOPay’s data infrastructure and engineering practices to meet the needs of a rapidly growing business.Provide technical guidance on the adoption of new technologies and data platforms to drive innovation in the team.
Negotiable
5 years of experience required
Managing 1-5 staff
Logo of 玩美行動股份有限公司.
職務說明: 1、跨部門商業夥伴: 與產品、營運、行銷團隊緊密合作,釐清業務痛點,將模糊的商業問題轉化為具體的分析框架,並追蹤核心指標達成狀況。2、使視覺化決策支援: 設計並維護高互動性的儀表板,將複雜數據轉化為易讀的視覺化洞察,協助管理層快速掌握經營動態。3、實驗設計與評估: 規劃與分析 A/B Testing,評估新功能上線或營運活動的成效,運用統計檢定提供具體、可落地的產品優化建議。4、深度探索分析: 進行探索式資料分析與歸因分析,挖掘數據背後的根因,為管理階層提供具備統計顯著性的量化證據。5、數據洞察溝通: 定期產出分析報告與簡報,向跨部門與管理團隊清晰闡述數據發現與商業影響,推動組織內部的數據驅動文化。必要條件:1、學歷背景:資訊、統計、數學、工業工程、經濟、商管或其他相關科系2、工作經驗:具備 1–2 年以上數據分析或相關領域經驗3、產業熱情與經驗: 熱愛影像處理、攝影或影片編輯領域,熟悉美圖系產品使用者行為者優先錄取。4、精通 SQL,能獨立撰寫複雜查詢處理海量數據。5、具備良好的商業敏感度(,能快速理解產品邏輯與營運情境,不僅僅是產出數字,更能提供策略建議。6、邏輯與溝通: 具備清晰的邏輯思考能力,能將複雜的數據分析結果轉化為非技術人員也能聽懂的語言。
Window Function
scikit-learn
pandas
50K ~ 65K TWD / month
1 years of experience required
No management responsibility
Logo of 技嘉科技股份有限公司 GIGA-BYTE TECHNOLOGY CO., LTD..
我們正在尋找一位充滿熱情與創新精神的 AI 工程師,與我們攜手探索AI的前沿技術,打造創新解決方案,推動 AI 技術的落地與實踐。【你將負責的任務】研究與應用前沿技術* 深入研究前沿的 AI 深度學習技術,包括但不限於大型語言模型(LLM)、強化學習(RL)、模型微調(Fine-tuning)等。* 將最新研究成果轉化為實際解決方案,解決業務場景中的挑戰。AI 系統設計與開發* 使用主流 AI 框架(如 PyTorch、scikit-learn)設計並實現符合公司需求的 AI 功能。* 針對不同業務場景(如數據分析、電腦視覺等),開發專屬 AI 解決方案,並應用於技嘉硬體設備或內部系統(例如智慧客服)。技術趨勢追蹤與導入* 持續關注全球 AI 領域的最新技術與研究成果。* 快速評估、篩選並導入具潛力的解決方案。全流程 AI 產品開發* 參與從數據蒐集、特徵工程、模型設計、訓練到部署的完整產品開發流程。* 確保系統效能與穩定性,並負責 Prototype 的開發與驗證。跨部門協作與支持* 與工程師、PM、業務團隊緊密合作,確保 AI 產品成功落地與商業化。【你將獲得的機會】 技術挑戰與成長空間 * 面對並解決業界最前沿的技術難題,持續拓展你的專業技能。 * 豐富資源與專業培訓 提供業界領先的開發資源與充足的計算資源。 * 享有多元的學術交流與技術培訓機會。 開放與友善的工作環境 * 扁平化組織結構,溝通透明、鼓勵創新。 * 友善團隊氛圍,讓你的貢獻被充分肯定。 如果你熱愛 AI 技術,並希望走在技術的最前端歡迎加入我們!
Negotiable
No requirement for relevant working experience
No management responsibility

Cake Job Search

Join Cake now! Search tens of thousands of job listings to find your perfect job.