Аз съм преподавател в INSAIT, където работя в областта на машинното обучение.
Д-р Никола Константинов
Контакт: [email protected]
Google Scholar: връзка
Моите изследователски интереси са в областта на надеждното машинно обучение и се интересувам особено от предоставянето на математически гаранции за моделите за машинно обучение. Примери за конкретни теми, по които работя в момента, са:
- Начини за да направим методите за съвместно обучение, като федеративно обучение, по-стабилни и надеждни;
- Изследване на теми в пресечната точка на машинното обучение и теорията на игрите, по-специално стимули за споделяне на данни;
- Разбиране на въздействието на ML върху обществото, по-специално чрез анализ на справедливостта и дългосрочното въздействие на ML моделите.
Супервизия
В INSAIT имам удоволствието да работя със следните студенти: Никита Цой (съвместно с Мартин Яги), Иван Кирев (съвместно с Андреас Краузе), Кристиан Минчев.
Образование и опит
- Постдокторант в ETH AI Center, работещ под ръководството на проф. Мартин Вечев и проф. Фани Янг (2022-2023)
- Докторант в IST Austria, работещ в групата на проф. Кристоф Ламперт (2017-2022). Бях и част от ELLIS PhD Program.
- Магистърска степен по математика и статистика в University of Oxford (2013-2017)
- Учил съм в Софийската математическа гимназия (2005-2013)
Награди и признания
- Член на ELLIS society от април 2023 г.
- ETH AI Center постдокторска стипендия през 2022 г.
- Номинация за награда за най-добра докторска дисертация в IST Austria през 2022 г.
- Член на ELLIS PhD Program през 2021-2022 г.
- Davies Prize, присъдена от Jesus College, Oxford, за най-добро представяне във Finals Honours School, 2017
- Department of statistics prize за FHS математика и статистика част a, University of Oxford, 2015
- Бронзов медал на Младшата балканска математическа олимпиада (JBMO), 2008
Докато бях в Оксфорд, бях и председател на Българското студентско дружество в Оксфордския университет 2015-2016.
Публикации
В INSAIT
- Никита Цой, Иван Кирев, Негин Рахими и Никола Константинов
За въздействието на перформативното минимизиране на риска за двоични случайни променливи
Ще се появи в: International Conference on Machine Learning (ICML), 2025. - Никита Цой и Никола Константинов
Пристрастие към простотата на двуслойни мрежи отвъд линейно разделими данни
В: International Conference on Machine Learning (ICML), 2024. - Никита Цой, Анна Михалкова, Теодора Тодорова и Никола Константинов
Доказуеми взаимни ползи от федеративно обучение в чувствителни към поверителността домейни
В: International Conference on Artificial Intelligence and Statistics (AISTATS), 2024 - Никита Цой и Никола Константинов
Стратегическо споделяне на данни между конкуренти.
В: Conference on Neural Information Processing Systems (NeurIPS), 2023. - Florian E. Dorner, Nikola Konstantinov, Georgi Pashaliev, Martin Vechev
Стимулиране на честността сред конкурентите в съвместното обучение и оптимизация.
В: Conference on Neural Information Processing Systems (NeurIPS), 2023.
Преди INSAIT
- Florian E. Dorner, Momchil Peychev, Nikola Konstantinov, Naman Goel, Elliott Ash, Martin Vechev
Водено от човека справедливо класифициране за обработка на естествен език
В: International Conference on Learning Representations (ICLR), Spotlight , 2023
Кратка версия, представена в: TSRML@NeurIPS , 2022 - Dimitar I. Dimitrov, Mislav Balunović, Nikola Konstantinov, Martin Vechev
Изтичане на данни при федеративно осредняване
В: Transactions of Machine Learning Research (TMLR) , 2022 - Eugenia Iofinova*, Nikola Konstantinov*, Christoph H. Lampert
FLEA: Доказуемо справедливо многоизточниково обучение от ненадеждни данни за обучение
В: Transactions of Machine Learning Research (TMLR) , 2022
* Означава равен принос - Nikola Konstantinov, Christoph H. Lampert
PAC обучение, отчитащо справедливостта, от повредени данни
В: Journal of Machine Learning Research (JMLR) , 2022 - Nikola Konstantinov, Christoph H. Lampert
За невъзможността за обучение, отчитащо справедливостта, от повредени данни
Представен доклад + в материалите на AFCR@NeurIPS , 2021 - Nikola Konstantinov, Elias Frantar, Dan Alistarh, Christoph H. Lampert
За примерната сложност на състезателното многоизточниково PAC обучение
В: International Conference on Machine Learning (ICML), 2020 - Nikola Konstantinov, Christoph H. Lampert
Устойчиво обучение от ненадеждни източници
В: International Conference on Machine Learning (ICML), 2019; Дълъг доклад - Dan Alistarh, Torsten Hoefler, Mikael Johansson, Nikola Konstantinov*, Sarit Khirirat, Cedric Renggli
Сходимостта на разредените градиентни методи
В: Conference on Neural Information Processing Systems (NeurIPS) , 2018
* Редът на авторите е по азбучен ред. - Dan Alistarh, Chris De Sa, Nikola Konstantinov*
Сходимостта на стохастичния градиентен спуск в асинхронна споделена памет
В: ACM Symposium of Principles of Distributed Computing (PODC), 2018
* Редът на авторите е по азбучен ред.