Машинно обучение

Машинно обучение и стратегическо поведение

Обучителният процес на машинното обучение (ML) става все по-фрагментиран, тъй като все повече заинтересовани страни (компании, институции, физически лица) се включват в един или няколко етапа от процеса на създаване на модела. Тъй като тези участници имат различни стимули, крайният ML модел може да не е еднакво полезен за всички страни. Освен това, конфликтните стимули могат да доведат до действия, които могат да навредят на ML модела.

В INSAIT работим върху това да направим машинното обучение устойчиво на манипулации и стратегическо поведение. Как може да се гарантира, че собствениците на данни са стимулирани да предоставят своите данни за обучение на модела? Как да модерираме взаимодействията между собствениците на данни и обучителите на модели, за да гарантираме качеството на ML модела? Как да изградим модели, устойчиви на манипулации от потребителите? Това са някои въпроси, по които изследователите в INSAIT работят в момента.

Изследователи, участващи в тази област:

 

 

Социално и дългосрочно въздействие на машинното обучение

Моделите за машинно обучение вече са част от многобройни системи в реалния свят и следователно имат все по-голямо въздействие върху нашето общество. Например, базираните на ML системи за препоръки контролират съдържанието, което виждаме в социалните медии, а големите езикови модели като ChatGPT все повече оформят ежедневните работни процеси.

В INSAIT се стремим да разберем как ML моделите се държат в един свят, който се оформя от самите модели, които внедряваме. Как можем да изградим модели, които се представят добре в една променяща се среда и отговарят на формалните етични изисквания? Какво е въздействието на AI моделите върху бъдещите данни, които наблюдаваме, и как тези данни могат да бъдат използвани за създаване на точни ML модели в бъдеще? Това са някои въпроси, по които изследователите в INSAIT работят в момента.

Изследователи, участващи в тази област: