Klauzula informacyjna

W związku z odwiedzaniem naszych serwisów internetowych przetwarzamy Twój adres IP, pliki cookies i podobne dane nt. aktywności lub urządzeń użytkownika. Jeżeli dane te pozwalają zidentyfikować Twoją tożsamość, wówczas będą traktowane jako dane osobowe zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady 2016/679 (RODO).

Administratora tych danych, cele i podstawy przetwarzania oraz inne informacje wymagane przez RODO znajdziesz w Polityce Prywatności pod tym linkiem.

Jeżeli korzystasz także z innych usług dostępnych za pośrednictwem naszych serwisów, przetwarzamy też Twoje dane osobowe podane przy zakładaniu konta, rejestracji na eventy, zamawianiu prenumeraty, newslettera, alertów oraz usług online (w tym Strefy Premium, raportów, rankingów lub licencji na przedruki).

Administratorów tych danych osobowych, cele i podstawy przetwarzania oraz inne informacje wymagane przez RODO znajdziesz również w Polityce Prywatności pod tym linkiem. Dane zbierane na potrzeby różnych usług mogą być przetwarzane w różnych celach, na różnych podstawach oraz przez różnych administratorów danych.

Pamiętaj, że w związku z przetwarzaniem danych osobowych przysługuje Ci szereg gwarancji i praw, a przede wszystkim prawo do sprzeciwu wobec przetwarzania Twoich danych. Prawa te będą przez nas bezwzględnie przestrzegane. Jeżeli więc nie zgadzasz się z naszą oceną niezbędności przetwarzania Twoich danych lub masz inne zastrzeżenia w tym zakresie, koniecznie zgłoś sprzeciw lub prześlij nam swoje zastrzeżenia pod adres odo@ptwp.pl.

Zarząd Publikator Sp. z o.o.

REKLAMA
×

Szukaj w serwisie

15 mln dolarów na technologie AI chroniące dzieci w internecie

  • Autor: PAP
  • 26 lut 2020 13:30
15 mln dolarów na technologie AI chroniące dzieci w internecie
Fot. Archiwum

Amerykański start-up L1ght zebrał 15 mln dolarów na rozwój technologii sztucznej inteligencji, która ma chronić dzieci przed niewłaściwymi treściami i cyberprzemocą w sieci. Oprogramowanie zaprojektowane zostało dla platform internetowych - informuje VentureBeat.

REKLAMA

L1ght stworzyło oprogramowanie oparte na sztucznej inteligencji, które ma pomóc firmom internetowym w wykrywaniu i usuwaniu z ich stron niewłaściwych i agresywnych treści, zwłaszcza kierowanych do małoletnich użytkowników. Technologia opracowana przez założoną w 2018 r. firmę, to właściwie interfejs programowania aplikacji (API), który umożliwia platformom internetowym, takim jak media społecznościowe, komunikatory, serwisy gamingowe etc., rozpoznawanie i zarządzanie szkodliwymi treściami. Sposób działania technologii zależy od rodzaju platformy i oczekiwań jej właściciela.

"Jeśli pracujemy nad komunikatorami, możemy analizować wiadomości i identyfikować agresywne zachowania, niezależnie od tego, czy chodzi o zachowania mające na celu atakowanie, obrażanie czy też zawstydzanie użytkowników. Jeśli natomiast współpracujemy z firmami hostingowymi jesteśmy w stanie przeanalizować miliony stron internetowych, żeby wyśledzić niewłaściwe treści" - powiedział VentureBeat współzałożyciel i szef L1ght Zohar Levkovitz.

Jak dodał, platformy internetowe znajdują się dzisiaj pod ogromną presją, żeby blokowały szkodliwe i krzywdzące treści. Jest jednak niemal niemożliwe, by były w stanie manualnie same skontrolować całą zawartość. Dlatego coraz częściej konieczne jest zastosowanie technologii takiej jak AI, zwłaszcza jeśli chodzi o usuwanie treści szkodliwych dla dzieci.

"Wierzę, że odpowiedzialność za zapewnienie bezpieczeństwa dzieciom w internecie powinna leżeć po stronie dostawcy usług, nie zaś użytkownika. To media społecznościowe muszą opracować zasady ochrony użytkowników. My dajemy im dobre narzędzie" - powiedział dziennikarzom Levkovitz.

L1ght zapowiada, że zamierza dopasowywać ceny za swoje usługi do rodzaju zastosowanej strategii. I tak na przykład, media społecznościowe mogą zostać obciążone taksą za każdego użytkownika, a firmy hostingowe - za stronę internetową.

Pomysł na opracowanie technologii chroniącej dzieci narodził się, kiedy syn jednego ze współzałożycieli firmy Rona Porata padł ofiarą cyberprzemocy na jednej ze stron gamingowych. Wtedy Porat i Levkovitz postanowili założyć L1ght i zatrudnili zespół specjalistów od AI oraz psychologów i antropologów w celu opracowania skutecznych metod identyfikowania treści szkodliwych dla dzieci.

L1ght nie jest jedyną firmą, poszukującą skutecznych metod ochrony nieletnich w internecie. Szwajcarski start-up Privately także opracował model AI, który ma chronić użytkowników przed cyberprzemocą. Jednym z odbiorców technologii Privately jest brytyjska stacja BBC.

Także L1ght podaje, że prowadzi już rozmowy z kilkoma kluczowymi klientami, nie chce jednak zdradzić więcej szczegółów. (PAP)

jowi/ malk/


REKLAMA


Rekomendowane dla Ciebie


REKLAMA

Ostatnio komentowane

REKLAMA