Reprodukcja benchmarku
Wybierasz paper, dataset i metrykę. Celem jest odtworzyć wynik, opisać różnice i zostawić kod, który da się uruchomić ponownie.
Dla studentów, którzy chcą pracować na styku akademii i wdrożeń: odtwarzać wyniki z paperów, porównywać modele na realnych zadaniach, a potem zamieniać to w działający produkt.
Forma jest praktyczna: zwykle 1/2 etatu. Stawka minimalna, bo to praktyki, ale płatne. Wolę zapłacić i mieć konkretną współpracę niż prosić studentów o darmowy wysiłek.
Wybierasz paper, dataset i metrykę. Celem jest odtworzyć wynik, opisać różnice i zostawić kod, który da się uruchomić ponownie.
Przekuwasz wynik w coś użytecznego: wpis w rejestrze, stronę porównawczą, endpoint albo narzędzie do wyboru modelu.
Sprawdzasz, czy model ma sens poza leaderboardem: koszt, latencję, edge cases, integrację i monitoring.
CodeSOTA nie jest klasycznym kursem. Praktykant dostaje obszar, hipotezę i oczekiwany artefakt: reprodukcję, benchmark, wpis w rejestrze, stronę, skrypt, demo albo mały deployment. Nauka dzieje się przez dowiezienie czegoś, co można pokazać.
Dopasowujemy temat do twoich umiejętności i aktualnych potrzeb CodeSOTA.
Czytasz źródło, uruchamiasz kod, sprawdzasz dane i metrykę.
Patrzysz na koszt, latencję, edge cases, utrzymanie i ryzyko.
Zostaje PR, wpis, raport, dashboard, endpoint albo demo.
Umiesz programować i chcesz robić rzeczy, które przeżyją poza notebookiem.
Interesuje cię ML, benchmarki, LLM-y, OCR, speech, vision albo systemy danych.
Potrafisz czytać paper, odtworzyć eksperyment i uczciwie opisać, co nie działa.
Nie musisz mieć komercyjnego doświadczenia. Musisz chcieć dowozić małe, kompletne artefakty.
To nie jest masowy program rekrutacyjny. Chodzi o kilka osób, które mogą wejść w konkretne zadania i uczyć się przez dostarczanie. Jeżeli po pierwszym projekcie obie strony widzą sens, możemy rozszerzać zakres.