Д-р Димитър Димитров

Контакт: [email protected]


Работя в общата област на програмните езици. Предишната ми работа беше фокусирана най-вече върху програмния анализ за конкурентни програми. По време на докторантурата ми (в ETH Zürich) изследвах две основни теми: 1) ефективно откриване на състезания на данни за структурирано-паралелни програми и 2) критерии за коректност при конкурентно използване на абстрактни типове данни. Първата тема доведе до скромно обобщение на офлайн LCA алгоритъма на Тарджан до по-широк клас структури, двуизмерните решетки. Втората тема доведе до понятие за състезания на данни, базирано на комутативност, и критерий за конфликтна сериализируемост за евентуално консистентни системи. Междувременно и след това (в PwC Switzerland и ChainSecurity) изследвах анализ и верификация на интелигентни договори.


Настоящите ми интереси са практическите основи на програмните езици и пресечната точка между програмните езици и математическата логика. Считам, че проектирането и внедряването на реални програмни езици е в голяма нужда от по-систематичен и строг подход и че може да се възползва значително от обширните изследвания, стари и нови, в теорията на програмните езици.

Награди:

  • 2020, Медал на ETH за изключителен докторат


Образование:

  • 2020, Доктор по компютърни науки, ETH Zurich
  • 2012, Магистър по математическа логика, Софийски университет
  • 2009, Бакалавър по информатика, Софийски университет

2025

Maria Drencheva, Ivo Petrov, Maximilian Baader, Dimitar I. Dimitrov, Martin Vechev
GRAIN: Exact Graph Reconstruction from Gradients
In: International Conference on Learning Representations (ICLR 2025)

Hristo Venev, Thien Udomsrirungruang, Dimitar Dimitrov, Timon Gehr, Martin Vechev
qblaze: An Efficient and Scalable Sparse Quantum Simulator
In: OOPSLA (SPLASH 2025)

Csaba Dékány, Stefan Balauca, Robin Staab, Dimitar I. Dimitrov, Martin Vechev
MixAT: Combining Continuous and Discrete Adversarial Training for LLMs
In: The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025)

Dimitar I. Dimitrov, Maximilian Baader, Mark Niklas Müller, Martin Vechev
SPEAR++: Scaling Gradient Inversion via Sparse Dictionary Learning
In: NeurIPS 2025 (Workshop)

2024

Kostadin Garov, Dimitar I. Dimitrov, Nikola Jovanović, Martin Vechev
Hiding in Plain Sight: Disguising Data Stealing Attacks in Federated Learning
In: International Conference on Learning Representations (ICLR 2024)

Hristo Venev, Timon Gehr, Dimitar Dimitrov, and Martin Vechev
Modular Synthesis of Efficient Quantum Uncomputation
In: Proceedings of the ACM on Programming Languages, Volume 8, Issue OOPSLA2, 2024

Dimitar I. Dimitrov, Maximilian Baader, Mark Niklas Müller, Martin Vechev
SPEAR: Exact Gradient Inversion of Batches in Federated Learning
In: Conference on Neural Information Processing Systems (NeurIPS 2024)

Ivo Petrov, Dimitar I. Dimitrov, Maximilian Baader, Mark Niklas Müller, Martin Vechev
DAGER: Exact Gradient Inversion for Large Language Models
In: Conference on Neural Information Processing Systems (NeurIPS 2024)