Application Engineer (Automotive SoC)
- ASIC/SoC設計フィールドアプリケーションエンジニア(FAE)組み込みソフトウェアエンジニア
- 東京都
- 年収300万円未満年収300万~500万円年収500万~700万円
- 提供元:ルネサス エレクトロニクス株式会社
- 掲載日:2026年04月08日
求人AIによる要約
自動車グレードのSoCにおけるAIモデルの有効化、最適化、デプロイメントを支援するAIアプリケーションエンジニアを募集しています。深層学習と組み込みシステムの専門知識を活かし、CNNIP/DSP/NPUプラットフォーム上でのAIモデルの性能分析、バイアス削減、システム統合を推進します。革新的な自動車AIソリューションに携わり、グローバルなチームで共に未来を創造するチャンスです。
【おすすめポイント】
・AIモデルの最適化とシステム統合に関わる技術的なチャレンジ
・リモートワーク含む柔軟な勤務体系
・キャリアアップの機会が豊富な多様性のある職場環境
※提供元サイトへリンクします
OUTLINE
ASIC/SoC設計
フィールドアプリケーションエンジニア(FAE)
組み込みソフトウェアエンジニア
Job Description
Job Summary
We are looking for an AI Application Engineer to support the enablement, optimization, and deployment of AI models on automotive-grade SoCs.
In this role, you will work closely with internal compiler/runtime teams and external customers to bring AI models from training to optimized inference on embedded NPU/DSP platforms, with a strong focus on performance, accuracy, and system integration.
Key Responsibilities
AI Model Enablement & Optimization
Enable and deploy AI models (e.g., BEV, object detection, segmentation, classification) on Gen4/5 SoC platforms with CNNIP/DSP/NPU HWA.
Perform model performance analysis (latency, throughput, multi-core scaling) and identify bottlenecks related to memory bandwidth, scheduling, or operator mapping.
Support model optimization workflows, including:
Post-Training Quantization (PTQ)
Quantization-Aware Training (QAT) collaboration
Operator fusion, graph optimization, and execution partitioning
Analyze accuracy degradation caused by quantization or operator limitations and propose mitigation strategies.
Embedded AI Inference & System Integration
Integrate AI models into embedded runtime environments (Linux / QNX).
Debug issues related to:
CNNIP/DSP/NPU offloading
Memory allocation / IPMMU
Data transfer overhead and multi-core synchronization
Validate AI workloads on target boards and simulators (SIL / HIL).
Toolchain & Model Workflow Support
Work with AI compiler and runtime toolchains (e.g., ONNX-based workflows, hybrid compiler, MWMX).
Support ONNX model handling, including:
Graph inspection and modification
Model segmentation and execution control
Quantized (QDQ) ONNX models
Develop or maintain internal tools and scripts to improve model validation, benchmarking, and customer workflows.
Customer & Cross-Team Collaboration
Act as a technical interface between customers, internal development teams, and field application engineers.
Support customer evaluations, PoCs, and demos on automotive AI platforms.
Provide technical guidance, documentation, and best practices for AI model deployment.
Contribute to weekly technical reports, issue tracking, and release validation activities.
Qualifications
Required Qualifications
Bachelor’s or Master’s degree in Computer Science, Electrical Engineering, Embedded Systems, or have experience in embedded systems.
Solid understanding of deep learning fundamentals and inference pipelines.
Hands-on experience with AI frameworks such as PyTorch, ONNX, or ONNX Runtime.
Strong programming skills in Python; working knowledge of C/C++ is a plus.
Familiarity with embedded systems and debugging tools.
Ability to analyze performance using metrics such as latency, throughput, and hardware utilization.
Good communication skills in a multi-cultural, cross-functional environment.
Preferred / Optional Qualifications
1–3 years of experience in embedded systems or AI-related development.
Experience with AI model training, fine-tuning, or evaluation, especially for:
Computer vision models (Detection / Segmentation / BEV)
Automotive or robotics use cases
Practical experience with AI inference optimization on embedded hardware (NPU, DSP, GPU, or CPU).
Familiarity with quantization techniques (INT8, calibration methods, QDQ models).
Experience with automotive SoCs or safety-related software environments (QNX is a plus).
Understanding of memory hierarchy, DMA, and multi-core scheduling in SoC architectures.
Nice to Have
Experience supporting customers or acting in a technical support / application engineering role.
Knowledge of automotive AI standards or ADAS perception pipelines.
Experience contributing to internal tools, scripts, or documentation.
Ability to read and debug ONNX graphs or intermediate representations.
Additional Information
ルネサスは、「To Make Our Lives Easier 」(人々の暮らしを楽“ラク”にする)というPurposeの下、組み込み半導体ソリューションを提供します。高品質とシステムレベルノウハウを兼ね備えた組み込み半導体のリーダーとして、自動車、産業、インフラ・IoT分野向けに、ハイパフォーマンスコンピューティング、組み込みプロセッシング、アナログ&コネクティビティ、そしてパワーを含めた幅広い製品ポートフォリオを軸とした、スケーラブルで包括的なソリューションを提供しています。
ルネサスは、30か国以上で22,000 人を超える多様性あふれる従業員と共に、限界に挑戦しながら、デジタライゼーションを通じてユーザエクスペリエンスを充実化させ、新たなイノベーションの時代を切り開いていきます。そして世界中の人々やコミュニティの未来のために、持続可能で省エネ効果の高いソリューションの開発に全力で取り組み、「To Make Our Lives Easier」を実現します。
ルネサスで実現できること
キャリアをスタート、そしてキャリアアップ:4つのプロダクトグループをはじめ、さまざまな部門において技術職として、また幅広いビジネスの経験を積むことができます。ハードウェア、ソフトウェアの専門知識を深めたり、新しいことにチャレンジしたりする機会があります。
やりがいとインパクトのある仕事をする: 革新的な製品とソリューションの開発に関わることにより、世界中のお客様のニーズに応えると同時に、人々の生活をより便利で安全かつ安心なものにすることに貢献できます。
「ウェルビーイング」に焦点を置いた環境で最大限に能力を発揮する:ルネサスでは、リモートワーク制度などによる柔軟な勤務体制づくり、また従業員リソースグループの積極的な活動をサポートするなど、インクルーシブな職場環境構築を目指しています。従業員を第一に考えたカルチャーとグローバルなサポート体制が、入社後すぐに活躍できる環境を提供します。
自分の力で成功を掴み、キャリアを築く準備はできていますか?
ルネサスで一緒に未来を形づくっていきましょう。
当社では、ハイブリッド勤務モデルを採用しており、従業員は週に2日間リモートワークを行うことができます。同時に、残りの日はチームとしてオフィスに集まり、協働を強化しています。出社指定日は火曜日から木曜日で、イノベーション、コラボレーション、そして継続的な学習に取り組む日としています。
東京都
COMPANY
※提供元サイトへリンクします
当サイトの情報は、情報提供元から自動取得した内容を掲載しており、一部情報が最新でない可能性があります。最新の内容については、直接情報提供元でご確認ください。