Д-р Никола Константинов

Аз съм преподавател в INSAIT, където работя в областта на машинното обучение.


Контакт: [email protected]
Google Scholar: връзка


Моите изследователски интереси са в областта на надеждното машинно обучение и се интересувам особено от предоставянето на математически гаранции за моделите за машинно обучение. Примери за конкретни теми, по които работя в момента, са:

  • Начини за да направим методите за съвместно обучение, като федеративно обучение, по-стабилни и надеждни;
  • Изследване на теми в пресечната точка на машинното обучение и теорията на игрите, по-специално стимули за споделяне на данни;
  • Разбиране на въздействието на ML върху обществото, по-специално чрез анализ на справедливостта и дългосрочното въздействие на ML моделите.


Супервизия

В INSAIT имам удоволствието да работя със следните студенти: Никита Цой (съвместно с Мартин Яги), Иван Кирев (съвместно с Андреас Краузе), Кристиан Минчев.

Образование и опит


Награди и признания

  • Член на ELLIS society от април 2023 г.
  • ETH AI Center постдокторска стипендия през 2022 г.
  • Номинация за награда за най-добра докторска дисертация в IST Austria през 2022 г.
  • Член на ELLIS PhD Program през 2021-2022 г.
  • Davies Prize, присъдена от Jesus College, Oxford, за най-добро представяне във Finals Honours School, 2017
  • Department of statistics prize за FHS математика и статистика част a, University of Oxford, 2015
  • Бронзов медал на Младшата балканска математическа олимпиада (JBMO), 2008


Докато бях в Оксфорд, бях и председател на Българското студентско дружество в Оксфордския университет 2015-2016.


Публикации


В INSAIT

  1. Никита Цой, Иван Кирев, Негин Рахими и Никола Константинов
    За въздействието на перформативното минимизиране на риска за двоични случайни променливи
    Ще се появи в: International Conference on Machine Learning (ICML), 2025.
  2. Никита Цой и Никола Константинов
    Пристрастие към простотата на двуслойни мрежи отвъд линейно разделими данни
    В: International Conference on Machine Learning (ICML), 2024.
  3. Никита Цой, Анна Михалкова, Теодора Тодорова и Никола Константинов
    Доказуеми взаимни ползи от федеративно обучение в чувствителни към поверителността домейни
    В: International Conference on Artificial Intelligence and Statistics (AISTATS), 2024
  4. Никита Цой и Никола Константинов
    Стратегическо споделяне на данни между конкуренти.
    В: Conference on Neural Information Processing Systems (NeurIPS), 2023.
  5. Florian E. Dorner, Nikola Konstantinov, Georgi Pashaliev, Martin Vechev
    Стимулиране на честността сред конкурентите в съвместното обучение и оптимизация.
    В: Conference on Neural Information Processing Systems (NeurIPS), 2023.


Преди INSAIT

  1. Florian E. Dorner, Momchil Peychev, Nikola Konstantinov, Naman Goel, Elliott Ash, Martin Vechev
    Водено от човека справедливо класифициране за обработка на естествен език
    В: International Conference on Learning Representations (ICLR), Spotlight , 2023
    Кратка версия, представена в: TSRML@NeurIPS , 2022
  2. Dimitar I. Dimitrov, Mislav Balunović, Nikola Konstantinov, Martin Vechev
    Изтичане на данни при федеративно осредняване
    В: Transactions of Machine Learning Research (TMLR) , 2022
  3. Eugenia Iofinova*, Nikola Konstantinov*, Christoph H. Lampert
    FLEA: Доказуемо справедливо многоизточниково обучение от ненадеждни данни за обучение
    В: Transactions of Machine Learning Research (TMLR) , 2022
    * Означава равен принос
  4. Nikola Konstantinov, Christoph H. Lampert
    PAC обучение, отчитащо справедливостта, от повредени данни
    В: Journal of Machine Learning Research (JMLR) , 2022
  5. Nikola Konstantinov, Christoph H. Lampert
    За невъзможността за обучение, отчитащо справедливостта, от повредени данни
    Представен доклад + в материалите на AFCR@NeurIPS , 2021
  6. Nikola Konstantinov, Elias Frantar, Dan Alistarh, Christoph H. Lampert
    За примерната сложност на състезателното многоизточниково PAC обучение
    В: International Conference on Machine Learning (ICML), 2020
  7. Nikola Konstantinov, Christoph H. Lampert
    Устойчиво обучение от ненадеждни източници
    В: International Conference on Machine Learning (ICML), 2019; Дълъг доклад
  8. Dan Alistarh, Torsten Hoefler, Mikael Johansson, Nikola Konstantinov*, Sarit Khirirat, Cedric Renggli
    Сходимостта на разредените градиентни методи
    В: Conference on Neural Information Processing Systems (NeurIPS) , 2018
    * Редът на авторите е по азбучен ред.
  9. Dan Alistarh, Chris De Sa, Nikola Konstantinov*
    Сходимостта на стохастичния градиентен спуск в асинхронна споделена памет
    В: ACM Symposium of Principles of Distributed Computing (PODC), 2018
    * Редът на авторите е по азбучен ред.