Popularność technologii AI zrewolucjonizowała świat biznesu. Ilość aplikacji tego typu technologii rośnie lawinowo zarówno w małych przedsiębiorstwach jak i największych korporacjach. Poza popularnością rośnie również ilość incydentów związanych z bezpieczeństwem. Twórcy modeli AI zapewniają, że te są w pełni bezpieczne i niezawodne – ale czy rzeczywiście tak jest?
Na webinarze poznasz specjalistyczne narzędzia służące do kontroli AI. Llama Gaurd to narzędzie pozwalające filtrować dane wejściowe i wyjściowe, dzięki czemu modele nie będą generować i przetwarzać treści szkodliwych, jak przemoc czy mowa nienawiści. Dzięki LLM Observability i Pheonix Arrize można w czasie rzeczywistym monitorować modele, narzędzia te pozwalają wykrywać takie problemy jak wolne i nieoczekiwane odpowiedzi czy spadki dokładność działania modelu. Z kolei LangKit od WhyLabs to rozwiązanie zapewniające, że odpowiedzi AI są bezpieczne i spełniają odgórnie określone wytyczne.
Rzeczywistość pokazuje, że przewidzenie wszystkich scenariuszy działania technologii opartych o AI jest niemożliwe. Dodatkowo wiele osób próbuje obejść ich zabezpieczenia, nie zawsze z dobrymi intencjami. Jak w takiej sytuacji możesz mieć pewność, że model wykona dokładnie to, czego od niego oczekujesz?
Co na Ciebie czeka?
Rozmowa o tym, dlaczego nie powinniśmy bezgranicznie ufać twórcom modeli
Źródła potencjalnych problemów, na które można napotkać używając modeli AI
Praktyczne sposoby kontroli technologii tego typu
Wskazówki pozwalające sprawić, że sztuczna inteligencja będzie wykonywać nasze polecenia
Sposoby na ograniczenie działań sztucznej inteligencji do tego, czego od niej oczekujemy
Zapowiedź naszego najnowszego kursu Agenci AI: Narzędzia Przyszłości™
Sesja pytań i odpowiedzi
...i wiele więcej!
Wybitny specjalista w dziedzinie AI. Jest
jednym z najbardziej wszechstronnych i doświadczonych profesjonalistów w branży. Swoją przygodę z AI rozpoczął ponad 20 lat temu.
Po otrzymaniu doktoratu na Vrije Universiteit w Amsterdamie, gdzie koncentrował się na badaniach naukowych z zakresu modelowaniu ekstremalnych zależności w ryzyku kredytowym, wykorzystywał swoje umiejętności w praktycznych zastosowaniach biznesowych.
Konrad pracował dla prestiżowych instytucji finansowych takich jak ABN AMRO, RBS i ING, budując rozwiązania machine learning kluczowych problemów inwestycyjnych. W 2015 został poproszony o stworzenie centralnego zespołu data science w eBay Classifieds Group. Obecnie pracuje w IKEA AI Lab w Amsterdamie jako Principal Data Scientist.
Przeszedł przez wszystkie etapy cyklu tworzenia produktów opartych na danych: od zrozumienia wymagań biznesowych, przez pozyskiwanie i obróbkę danych, modelowanie, testowanie, deployment i prezentację wyników kadrze zarządzającej.
Ma na swoim koncie liczne sukcesy w tworzeniu rozwiązań AI w różnych branżach, w tym high frequency trading, ryzyko kredytowe, przewidywanie cen płodów rolnych, analiza anomalii w urządzeniach przemysłowych, optymalizacja rekomendacji i multimedialne asystenty zakupowe. Jego praca w obszarze AI była pionierska, zwłaszcza w czasach, gdy większość biznesów uważała AI za ciekawostkę.
Jego pasja do dzielenia się wiedzą i mentorowania młodych talentów jest nieoceniona. Jest autorem bestsellerowych książek o AI. Wierzy, że kluczem do sukcesu jest nie tylko umiejętność rozwiązywania praktycznych problemów, ale także zrozumienie, jak unikać typowych błędów.
Poza pracą Konrad aktywnie uczestniczy w konkursach na Kaggle i trenuje Krav Magę. Jest osobą, która nieustannie dąży do doskonalenia siebie zarówno na polu zawodowym, jak i osobistym.