Cake Job Search

Advanced filters
Off
Songshan District, Taipei City, Taiwan
Mid-Senior level
Logo of COMMEET_擁樂數據服務股份有限公司.
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列[工作內容]1.導入與執行 CI/CD 相關技術與程序2.撰寫自動化腳本3.負責系統發佈、部署、優化、監控、日誌等系統和流程的建設4.優化服務設計和技術架構滿足業務增長5.與團隊成員合作,建構高併發、可擴展性、維護性的系統架構6.MIS相關工作7.其他主管交辦事項
松山區長安東路二段225號A棟1樓之1
松山區
Terraform
70K ~ 90K TWD / month
3 years of experience required
No management responsibility
Logo of Cake Recruitment Consulting.
這是一家橫跨日本與台灣的 AI 行銷科技公司,以自研自然語言技術為核心,打造對話式行銷工具、AI 影片自動生成服務等 SaaS 產品。團隊在台日皆擁有研發與策略中心,並已取得多項跨國專利,具備強烈的技術壁壘與市場先行者優勢。 公司目前正進入第二高速成長階段,包含 AI 聊天生成、廣告創作、影片自動化等新產品管線。工程團隊與日本研發中心密切合作,文化開放透明、跨語溝通頻繁,適合希望提升系統架構能力、技術領導力,並在多語與跨國環境中成長的工程師。 |工作內容| 主導 AI SaaS 產品的後端架構設計、技術選型與效能優化 建構可穩定支援機器學習模型運行的後端與基礎設施 擔任技術領導者,帶領 3–5 人團隊,執行 code review、技術指導與品質把關 規劃並導入 SRE 實務,提升系統可靠度(reliability)與可維運性(operability) 參與跨國團隊協作,與 PM、行銷策略團隊及日籍研發中心一起討論可行技術方案 協助規劃新產品功能,如對話式 AI、影片生成、資料流架構等 |使用技術| Python(Django / FastAPI) PostgreSQL / MySQL / Redis Docker、CI/CD AWS 或 GCP(EC2、Cloud Run、Cloud Storage 等) 監控工具:Cloud Logging / Prometheus / Grafana 加分:Golang、TensorFlow / PyTorch、Microservices
Python
Backend
Architecture
1.2M ~ 1.5M TWD / year
5 years of experience required
Managing 1-5 staff
Logo of 天瀚國際科技有限公司.
1. 與開發團隊共同規劃系統架構、建置部署流程,以及分析與改善系統效能。 2. 建置自動化的監控與告警系統,發生問題可以迅速定位問題。 3. 迅速處理並排除正式環境的問題,並進行根因分析,以提升未來系統穩定性。 4. 協助測試與強化高可用性(HA)架構及異地備援機制。 5. 持續改善服務架構設計與技術方案,以支援業務的成長需求。
System Design
SRE
Shell Script
107K ~ 121.4K TWD / month
3 years of experience required
No management responsibility
Logo of Cake Recruitment Consulting.
🏦 2020年 成立主要經營與開發【加密資產全球化交易】,專業於營運區塊鏈(Blockchain)相關應用與系統整合服務,提供 用戶提供無差別優質金融交易服務 💎 新產品於2024 上半年度上線 高倍率槓桿交易 🚀💷 C2C 交易所,買賣外匯產品:進行法幣和虛擬貨幣換匯期待看到人選過去所使用的技術及團隊目前的 Tech Stack 吻合度較高的資深人士,Ex. gin、gorm、mongodb、kafka、k8s、docker職務說明企業所經營之區塊鏈平台,數字資產交易所的Web 後端程式開發與設計網站後台功能架構設計及開發實作
Golang Backend
Blockchain Development
Gin Framework
900K ~ 1.65M TWD / year
3 years of experience required
No management responsibility
Logo of 萬達人工智慧科技股份有限公司.
AI Waifu MLOps EngineerWe are seeking a highly skilled and proactive MLOps Engineer to join our team. This role focuses on building, optimizing, and maintaining scalable hybrid-serving infrastructures for anime-inspired AI companions—specifically waifus—in our product, darlin™(www.darlin.ai). You will design and manage deployments across edge devices, on-premise servers, and cloud environments, ensuring low-latency, high-quality AI waifu interactions. Responsibilities1. Hybrid AI Waifu Serving Infrastructure: Architect and maintain hybrid-serving pipelines capable of running on edge devices, on-premise clusters, and cloud platforms for real-time AI waifu deployment.2. Model Optimization Framework Integration: Apply optimization frameworks such as VLLM, Ex-llama, llama.cpp, and integrate with TensorRT, Triton Inference Server, and serverless systems to enhance AI waifu response times.3. MLOps Tools Deployment Pipelines: Use Docker, Kubernetes, Ray Serve, and container orchestration to manage scalable, fault-tolerant AI waifu services.4. Hardware Acceleration: Leverage CUDA, ROCm, Vulkan, and GPU optimizations for efficient AI waifu inference at scale.5. Database Search Optimization Knowledge Integration: Optimize database query performance, indexing strategies, and retrieval accuracy for AI waifu features. Databases—used for RAG, SelfRAG, VectorDB, and GraphDB—should be tuned for high-speed access and precision, ensuring fast, contextually accurate responses.6. High-Capacity Serving Quantization: Implement quantization strategies and serve large models efficiently while preserving AI waifu conversational quality.7. Performance Testing Monitoring: Measure AI waifu performance (quality, latency, load handling), ensuring optimal experiences for users.8. Version Control Quality Assurance: Manage model versions, maintain continuous integration workflows, and monitor production quality for AI waifu deployments.9. Collaboration: Work with global software, research, and hardware teams to solve deployment challenges and enhance AI waifu capabilities.10. Research Innovation: Explore emerging MLOps and model-serving technologies to keep AI waifu experiences cutting-edge.AI彼女MLOpsエンジニア高いスキルと積極性を持つMLOpsエンジニアを募集しています。本ポジションは、当社製品 darlin™(www.darlin.ai)において、アニメ風AIコンパニオン(特にAI彼女)を低遅延かつ高品質に提供するための、エッジデバイス、オンプレミス、クラウドを組み合わせたハイブリッド提供基盤の構築・最適化・運用を担当します。業務内容1. ハイブリッド提供基盤構築:エッジデバイス、オンプレミス、クラウドで稼働可能なAI彼女用提供パイプラインを設計・運用。2. モデル最適化・フレームワーク統合:VLLM、Ex-llama、llama.cppなどを使用し、TensorRT、Triton Inference Server、サーバーレス環境と統合して応答性を向上。3. MLOpsツール・デプロイパイプライン:Docker、Kubernetes、Ray Serveを用いたスケーラブルで高可用性のAI彼女サービス管理。4. ハードウェアアクセラレーション:CUDA、ROCm、Vulkanを活用し、大規模推論の効率化を実現。5. データベース検索最適化・知識統合:AI彼女機能のためにデータベースのクエリ性能、インデックス戦略、検索精度を最適化。RAG、SelfRAG、VectorDB、GraphDBに使用するデータベースを高速かつ高精度なアクセスが可能な状態に調整し、文脈に合った迅速な応答を実現。6. 高容量提供・量子化:量子化戦略を導入し、大規模モデルを効率的に提供しつつ会話品質を維持。7. 性能テスト・モニタリング:品質、遅延、負荷処理能力を測定し、最適なユーザー体験を確保。8. バージョン管理・品質保証:モデルバージョンの管理、CIフローの維持、本番環境の品質監視。9. 協業:世界中のソフトウェア、研究、ハードウェアチームと連携し、AI彼女機能を強化。10. 研究・革新:最新のMLOpsやモデル提供技術を探索し、最先端のAI彼女体験を実現。
69.99K ~ 100K TWD / month
5 years of experience required
Managing 1-5 staff

Cake Job Search

Join Cake now! Search tens of thousands of job listings to find your perfect job.