Wykładowca na Texas A&M University w Commerce oskarżył studentów o oszukiwanie poprzez wykorzystywanie sztucznej inteligencji do pisania esejów. Informację tę podał portal The Register.
Jared Mamm, koordynator Wydziału Nauk Rolniczych i Zasobów Naturalnych, sprawdził autentyczność tekstów za pomocą ChatGPT. Według niego, narzędzie oznaczyło niektóre prace jako wygenerowane maszynowo.
Sytuacja doprowadziła do zamrożenia ocen i dalszego dochodzenia. Podejrzani studenci przyznali się do używania sztucznej inteligencji do pisania esejów. W rezultacie połowa grupy akademickiej została tymczasowo pozbawiona dyplomów.
„Dam wszystkim uczestnikom tego kursu ocenę X. Nie oceniam bzdur związanych ze sztuczną inteligencją” – powiedział Mamm studentom.
Władze uniwersytetu potwierdziły zastosowanie oceny X. Według nich jest to środek tymczasowy, podczas gdy dochodzenie jest w toku.
Uniwersytet powiedział, że wykluczył możliwość oszukiwania przez niektórych studentów, podczas gdy inni zdecydowali się oddać nowy esej do oceny. Co najmniej jeden student przyznał się do korzystania z ChatGPT w celu wykonania zadania. W oświadczeniu czytamy:
„A&M w Commerce potwierdza, że żaden student nie oblał zajęć ani nie został zawieszony z powodu tego problemu. Urzędnicy badają incydent i opracowują politykę zwalczania niewłaściwego wykorzystania technologii AI.”
Administracja rozpoczęła również opracowywanie i wdrażanie narzędzi do identyfikacji tekstów AI w pracach kursowych.
Źródło zaznajomione z sytuacją powiedziało, że konflikt jest bliski zakończenia. Uniwersytet rzekomo przyznał, że decyzja wykładowcy była niewłaściwa.
„To było całkowicie poza protokołem i niewłaściwe użycie ChatGPT. Przynajmniej nikt nie użył wulgarnego języka w zarzutach.”
Według ekspertów, nawet zaawansowane detektory generowanego tekstu nie są w stanie dokładnie rozpoznać fałszywego tekstu. Vinu Sankar Sadasivan, doktorant na Uniwersytecie Maryland stwierdził:
„Wraz z poprawą dużych modeli językowych do naśladowania ludzi, najlepszy możliwy detektor osiągnie dokładność prawie 50 procent.”
Dodał, że detektory można oszukać, parafrazując dane wyjściowe dużego modelu językowego. Sadasivan wezwał do pogodzenia się z faktem, że możemy nigdy nie być w stanie wiarygodnie odróżnić tekstu AI od tekstu ludzkiego.
„Nie powinniśmy używać tych detektorów do wydawania ostatecznego werdyktu.”
Przypomnijmy, że w grudniu 2022 r. profesor przyłapał studentów na fałszowaniu esejów za pomocą ChatGPT.
W styczniu nowojorskie szkoły publiczne zakazały korzystania z chatbota na terenie instytucji. Później dołączyły do nich niektóre z największych uniwersytetów w Australii.
W tym samym miesiącu OpenAI opublikowało detektor generowanych tekstów. ChatGPT szybko nauczył się, jak obchodzić ograniczenia narzędzia.