Контакт: [email protected]
Д-р Димитър Димитров
Работя в общата област на програмните езици. Предишната ми работа беше фокусирана най-вече върху програмния анализ за конкурентни програми. По време на докторантурата ми (в ETH Zürich) изследвах две основни теми: 1) ефективно откриване на състезания на данни за структурирано-паралелни програми и 2) критерии за коректност при конкурентно използване на абстрактни типове данни. Първата тема доведе до скромно обобщение на офлайн LCA алгоритъма на Тарджан до по-широк клас структури, двуизмерните решетки. Втората тема доведе до понятие за състезания на данни, базирано на комутативност, и критерий за конфликтна сериализируемост за евентуално консистентни системи. Междувременно и след това (в PwC Switzerland и ChainSecurity) изследвах анализ и верификация на интелигентни договори.
Настоящите ми интереси са практическите основи на програмните езици и пресечната точка между програмните езици и математическата логика. Считам, че проектирането и внедряването на реални програмни езици е в голяма нужда от по-систематичен и строг подход и че може да се възползва значително от обширните изследвания, стари и нови, в теорията на програмните езици.
Награди:
- 2020, Медал на ETH за изключителен докторат
Образование:
- 2020, Доктор по компютърни науки, ETH Zurich
- 2012, Магистър по математическа логика, Софийски университет
- 2009, Бакалавър по информатика, Софийски университет
2025
Maria Drencheva, Ivo Petrov, Maximilian Baader, Dimitar I. Dimitrov, Martin Vechev
GRAIN: Exact Graph Reconstruction from Gradients
In: International Conference on Learning Representations (ICLR 2025)
Hristo Venev, Thien Udomsrirungruang, Dimitar Dimitrov, Timon Gehr, Martin Vechev
qblaze: An Efficient and Scalable Sparse Quantum Simulator
In: OOPSLA (SPLASH 2025)
Csaba Dékány, Stefan Balauca, Robin Staab, Dimitar I. Dimitrov, Martin Vechev
MixAT: Combining Continuous and Discrete Adversarial Training for LLMs
In: The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025)
Dimitar I. Dimitrov, Maximilian Baader, Mark Niklas Müller, Martin Vechev
SPEAR++: Scaling Gradient Inversion via Sparse Dictionary Learning
In: NeurIPS 2025 (Workshop)
2024
Kostadin Garov, Dimitar I. Dimitrov, Nikola Jovanović, Martin Vechev
Hiding in Plain Sight: Disguising Data Stealing Attacks in Federated Learning
In: International Conference on Learning Representations (ICLR 2024)
Hristo Venev, Timon Gehr, Dimitar Dimitrov, and Martin Vechev
Modular Synthesis of Efficient Quantum Uncomputation
In: Proceedings of the ACM on Programming Languages, Volume 8, Issue OOPSLA2, 2024
Dimitar I. Dimitrov, Maximilian Baader, Mark Niklas Müller, Martin Vechev
SPEAR: Exact Gradient Inversion of Batches in Federated Learning
In: Conference on Neural Information Processing Systems (NeurIPS 2024)
Ivo Petrov, Dimitar I. Dimitrov, Maximilian Baader, Mark Niklas Müller, Martin Vechev
DAGER: Exact Gradient Inversion for Large Language Models
In: Conference on Neural Information Processing Systems (NeurIPS 2024)