Bluesky: Otwarte API umożliwia wykorzystywanie danych do trenowania modeli AI
Platforma Bluesky zyskuje coraz większą popularność, ale jej otwarte API niesie za sobą istotne wyzwania związane z prywatnością użytkowników. Choć sama platforma deklaruje, że nie wykorzystuje treści użytkowników do trenowania systemów sztucznej inteligencji, brak ograniczeń umożliwia to podmiotom trzecim.
Publiczne dane na celowniku AI
Według raportu 404 Media, „machine learning librarian” z firmy Hugging Face pobrał milion publicznych postów z Bluesky za pomocą Firehose API. Dane miały posłużyć do badań związanych z uczeniem maszynowym i zostać w publicznym repozytorium.
Choć po wywołanej kontrowersji dane zostały usunięte, sytuacja ta przypomina, że treści publikowane na Bluesky są publicznie dostępne i mogą być wykorzystane przez osoby trzecie.
Próby ochrony danych użytkowników
Bluesky zapowiedziało, że pracuje nad rozwiązaniami umożliwiającymi użytkownikom wyrażanie swoich preferencji dotyczących zgody na wykorzystanie ich danych. Jednakże realizacja tych preferencji zależy wyłącznie od dobrej woli zewnętrznych programistów. Platforma przyznała, że jej możliwości egzekwowania zgody użytkowników kończą się na ich własnym systemie. W oświadczeniu firma poinformowała:
„Bluesky nie będzie mogło wymusić przestrzegania tych ustawień poza naszymi systemami. To od zewnętrznych deweloperów zależy, czy będą respektować te preferencje. Rozmawiamy z inżynierami i prawnikami, aby opracować lepsze rozwiązania, które wkrótce ogłosimy.”
Wzrost popularności a większa kontrola
Dynamiczny wzrost popularności Bluesky stawia platformę w świetle reflektorów, podobnie jak inne duże serwisy społecznościowe. Wraz z rosnącym zainteresowaniem rośnie także poziom kontroli i oczekiwań dotyczących ochrony prywatności użytkowników.
Podsumowanie
Choć Bluesky wprowadza innowacyjne podejście do sieci społecznościowych, otwarty charakter aplikacji niesie ze sobą ryzyko niewłaściwego wykorzystania danych. Użytkownicy powinni być świadomi, że publicznie publikowane treści mogą zostać pobrane i użyte, np. do trenowania modeli sztucznej inteligencji. W międzyczasie firma musi znaleźć balans między otwartością a ochroną prywatności.