Stanowisko CDV w sprawie korzystania z narzędzi generatywnej SI. – Collegium Da Vinci Poznań

Stanowisko CDV w sprawie korzystania z narzędzi generatywnej SI.

Przygotowaliśmy dla naszej kadry dydaktycznej, ale także dla naszych studentek i studentów rekomendacje dotyczące korzystania z narzędzi generatywnej SI.

Collegium Da Vinci  jest otwarte na korzystanie z nowych technologii, narzędzi informatycznych i generatorów tekstu, np. ChatGPT oraz generatorów wideo, obrazu czy dźwięku w ramach działań dydaktycznych i naukowych.

Generatory sztucznej inteligencji weszły do codziennego użytkowania i możemy je wykorzystywać również w procesie nauczania i uczenia się oraz pracy naukowej, dlatego tak istotne jest umiejętne korzystanie z ich potencjału.

Uważamy, że konieczne jest zatem poznawanie możliwości i ograniczeń narzędzi z obszaru generatywnej sztucznej inteligencji, co przyczyni się do refleksyjnego i krytycznego korzystania z nowych możliwości. Jesteśmy obecnie na etapie rozwoju technologii, która nie jest jeszcze w pełni uregulowana przepisami prawa, dlatego niezwykle istotne jest odpowiedzialne, etyczne i transparentne korzystanie z dostępnych narzędzi z obszaru generatywnej sztucznej inteligencji.

Stoimy na stanowisku, że korzystanie z generatorów treści, czyli np. ChatGPT, w procesie dydaktycznym i naukowym wymaga świadomego uwzględnia zasad etyki, konieczności weryfikacji wygenerowanych treści, kreatywnego oraz ostrożnego użycia uzyskanych rezultatów.

Zalecamy odpowiedzialne stosowanie narzędzi generujących treści i budowanie świadomości niebezpieczeństwa związanego z kwestią naruszenia praw autorskich oraz ryzykiem udostępniania danych osobowych i danych wrażliwych czy tajemnicy przedsiębiorstwa.

Ważna jest też świadomość, że narzędzia z obszaru generatywnej sztucznej inteligencji mogą generować treści, które mogą zawierać elementy chronione prawem autorskim.

Zalecamy ograniczone zaufanie wobec treści wygenerowanych za pomocą narzędzi z obszaru generatywnej sztucznej inteligencji i innych źródeł internetowych. Krytyczne podejście niezbędne jest ze względu na możliwe błędy w treściach, odwołania do błędnych lub nie istniejących źródeł, stronniczość, nieuwzględnienie kontekstu czy inne ograniczenia narzędzi. Warto weryfikować poprawność wygenerowanych treści z wiarygodnymi źródłami zewnętrznymi.

Postulujemy, by podchodzić krytycznie do treści wygenerowanych przez narzędzia z obszaru generatywnej sztucznej inteligencji i traktować je wyłącznie jako narzędzia wspomagające pracę. Treści wygenerowane przez narzędzia z obszaru generatywnej sztucznej inteligencji mogą bowiem stanowić źródło inspiracji czy pomysłów, podstaw do kreatywnego korzystania i wspierać proces nauczania, jeśli są wykorzystane zgodnie z zasadami etyki, przepisami prawa oraz poszanowaniem praw autorskich.

Nieprzetworzone treści wygenerowane przez generatory treści wymagają podania źródła ich wygenerowania, nie są bowiem wytworem użytkowniczki_a (osób studiujących, uczących czy prowadzących badania naukowe). Treści generowane przez narzędzia mogą być jedynie podstawą do samodzielnej i kreatywnej pracy. Nie dopuszcza się kopiowania treści wygenerowanych przez narzędzia generatywnej sztucznej inteligencji i traktowania ich jako własnych dzieł. W przypadku korzystania z narzędzi z obszaru generatywnej sztucznej inteligencji konieczna jest uczciwość i transparentność, a zatem wskazanie etapów korzystania z asysty narzędzi z obszaru generatywnej sztucznej inteligencji i zakresu tego korzystania w ramach realizowanych dzieł.

Należy uwzględnić możliwość nieuczciwego korzystania przez osoby studiujące z generatorów treści w pracach zaliczeniowych, dlatego zalecamy przygotowywanie takich form zaliczeń (np. egzaminy pisemne w sali, egzaminy ustne, “obrona” projektu), które pozwalają skutecznie zweryfikować rzeczywistą wiedzę i umiejętności osób studiujących.

Zachęcamy do edukacji w zakresie umiejętnego i jednocześnie etycznego korzystania z narzędzi z obszaru generatywnej sztucznej inteligencji, czyli np. ChatGPT.

W związku z rozwojem narzędzi z obszaru generatywnej sztucznej inteligencji, czyli np. ChatGPT, a także dostosowywania regulacji prawnych do zmieniającej się rzeczywistości, nasze rekomendacje będą uaktualniane.