ML Engineer at Tenstorrent bringing up and optimizing AI models on custom AI accelerator hardware. Work spans deep learning frameworks, runtime software, and hardware debugging to turn research workloads into production systems.
Tenstorrent is leading the industry on cutting-edge AI technology, revolutionizing performance expectations, ease of use, and cost efficiency. With AI redefining the computing paradigm, solutions must evolve to unify innovations in software models, compilers, platforms, networking, and semiconductors. Our diverse team of technologists have developed a high performance RISC-V CPU from scratch, and share a passion for AI and a deep desire to build the best AI platform possible. We value collaboration, curiosity, and a commitment to solving hard problems. We are growing our team and looking for contributors of all seniorities.
Tenstorrent is leading the industry on cutting-edge AI technology, revolutionizing performance expectations, ease of use, and cost efficiency. With AI redefining the computing paradigm, solutions must evolve to unify innovations in software models, compilers, platforms, networking, and semiconductors. Our diverse team of technologists have developed a high performance RISC-V CPU from scratch, and share a passion for AI and a deep desire to build the best AI platform possible. We value collaboration, curiosity, and a commitment to solving hard problems. We are growing our team and looking for contributors of all seniorities.
This role sits at the intersection of technical expertise and customer engagement, focused on helping customers and internal teams bring up and optimize AI models on Tenstorrent platforms.
This role is hybrid, based out of Tokyo, Japan.
We welcome candidates at various experience levels for this role. During the interview process, candidates will be assessed for the appropriate level, and offers will align with that level, which may differ from the one in this posting.
Tenstorrentは、最先端のAI技術で業界をリードし、性能、使いやすさ、コスト効率の常識を変えています。AIによってコンピューティングのあり方が再定義される中、ソフトウェアモデル、コンパイラ、プラットフォーム、ネットワーキング、半導体における技術革新を一体として進化させることが求められています。Tenstorrentの多様な技術者チームは、高性能なRISC-V CPUをゼロから開発してきました。そして、AIへの情熱と、最高のAIプラットフォームをつくりたいという強い思いを共有しています。私たちは、コラボレーション、好奇心、そして難しい課題に真摯に向き合う姿勢を大切にしています。現在、さまざまなレベルの方を歓迎しながらチームを拡大しています。
このポジションは、技術的な専門性と顧客・社内連携の両方が求められる役割であり、顧客や社内チームがTenstorrentプラットフォーム上でAIモデルを立ち上げ・最適化できるよう支援することにフォーカスしています。
本ポジションは日本・東京を拠点としたハイブリッド勤務です。
本ポジションでは、さまざまな経験レベルの候補者を歓迎しています。面接プロセスを通じて適切なレベルを判断し、オファー内容はそのレベルに応じて決定されるため、本求人票上のレベル表記と異なる場合があります.
As a Software Engineer on the AI Models / System Bring-Up team, you will help bring up, validate, and optimize AI models on Tenstorrent platforms. You will work across models, runtime software, and hardware to turn research workloads into reliable, high-performance systems.
AI Models / System Bring-UpチームのSoftware Engineerとして、Tenstorrentプラットフォーム上でAIモデルの立ち上げ、検証、最適化を担当していただきます。モデル、ランタイムソフトウェア、ハードウェアを横断して、研究段階のワークロードを安定した高性能システムへとつなげていくポジションです。
Experience with deep learning models in at least one major framework such as PyTorch, TensorFlow, or JAX.
Strong Python or C++ skills and good understanding of neural network architectures, training, and inference workflows.
Comfortable working in Linux and able to debug issues across software, runtime, and hardware.
Collaborative and curious, with a degree in Computer Science, Engineering, Applied Mathematics, or a related field, or equivalent practical experience.
PyTorch、TensorFlow、JAXなど、主要な深層学習フレームワークのいずれかでのモデル実務経験をお持ちの方
PythonやC++に強みがあり、ニューラルネットワークの構造、学習、推論の基本理解がある方
Linux環境での開発に慣れており、ソフトウェア・ランタイム・ハードウェアをまたぐ課題のデバッグができる方
協調性と好奇心があり、Computer Science、Engineering、Applied Mathematics関連の学位、または同等の実務経験をお持ちの方
Bring up and validate AI models such as LLMs, CNNs, recommendation models, and vision models on Tenstorrent hardware and simulators.
Port models into Tenstorrent toolchains and runtime environments.
Run experiments to evaluate model accuracy, performance, and stability.
Debug cross-stack issues and work closely with hardware, compiler, and runtime teams.
LLM、CNN、推薦モデル、ビジョンモデルなどのAIモデルをTenstorrentのハードウェアおよびシミュレータ上で立ち上げ、検証すること
モデルをTenstorrentのツールチェーンおよびランタイム環境へ移植・統合すること
モデルの精度、性能、安定性を評価するための実験を設計・実施すること
スタック横断の課題をデバッグし、ハードウェア、コンパイラ、ランタイムの各チームと密に連携すること
How AI models are mapped and optimized on custom AI accelerators.
How hardware, compiler, runtime, and model teams work together to build production-ready systems.
Best practices for model bring-up, automation, regression testing, and performance tuning.
How to translate real-world model requirements into practical technical solutions.
カスタムAIアクセラレータ上でAIモデルをどのように動かし、最適化していくか
ハードウェア、コンパイラ、ランタイム、モデルの各チームがどのように連携して実運用向けシステムを作るか
モデルbring-up、自動化、回帰テスト、性能チューニングのベストプラクティス
実際のモデル要件を、実用的な技術ソリューションへ落とし込む方法
Experience with LLM or foundation model inference, including KV-cache optimization and quantization.
Background in compiler or runtime engineering for ML workloads.
Exposure to post-silicon validation, board bring-up, firmware development, or accelerator platforms.
Experience working directly with customers or field teams on AI workload deployment and debugging.
LLMまたは基盤モデル推論の経験(KV-cache最適化、量子化を含む)
MLワークロード向けのコンパイラまたはランタイム開発の経験
ポストシリコン検証、ボードbring-up、ファームウェア開発、アクセラレータ基盤に関する経験
AIワークロードの導入やデバッグで、顧客やフィールドチームと直接連携した経験
This offer of employment is contingent upon the applicant being eligible to access U.S. export-controlled technology. Due to U.S. export laws, including those codified in the U.S. Export Administration Regulations (EAR), the Company is required to ensure compliance with these laws when transferring technology to nationals of certain countries (such as EAR Country Groups D:1, E1, and E2). These requirements apply to persons located in the U.S. and all countries outside the U.S. As the position offered will have direct and/or indirect access to information, systems, or technologies subject to these laws, the offer may be contingent upon your citizenship/permanent residency status or ability to obtain prior license approval from the U.S. Commerce Department or applicable federal agency. If employment is not possible due to U.S. export laws, any offer of employment will be rescinded.