Dažu pēdējo mēnešu laikā, ziņu portāli un sociālie tīkli ir pilni ar rakstiem un reportāžām par ChatGPT un citiem risinājumiem, kuru pamatā ir mākslīgais intelekts.
Kāds aicina slēgt piekļuvi šāda veida resursiem, kāds prognozē bezdarbu noteiktām profesiju grupām. Studenti aktīvi izmanto ChatGPT savās akadēmiskajās aktivitātēs un pat aizstāv ar ChatGPT rakstītos diplomdarbus, kas izraisa zināmu “šoku” un diskusijas akadēmiskajā jomā.
Šobrīd starp izglītības iestāžu pārstāvjiem un pētniekiem visā pasaulē notiek regulāras diskusijas saistībā ar mākslīgā intelekta izmantošanas ētiku. Šajā kontekstā jutīgus ētikas jautājumus nav viegli atrisināt. Bet, ja ChatGPT “palīdz” studentiem, vai tas var noderēt mācībspēkiem akadēmiskajā darbībā?
Ikmēneša profesionālās pilnveides pasākumā TSI mācībspēki izvirzīja tieši šādu jautājumu. Reālus piemērus šāda vieda asistenta izmantošanai profesoriem un to praktisko pielietojumu demonstrēja TSI profesori un ar mākslīgo intelektu saistīto programmu direktori – Dmitrijs Pavļuks un Boriss Mišņevs.
Semināra laikā īpaša uzmanība tika pievērsta drošības jautājumiem, mākslīgā intelekta izmantošanas ētikai un personas datu aizsardzībai. Turklāt, kolēģi iepazīstināja ar noderīgu paraugprakses izlasi no pasaules vadošajām universitātēm šajā jomā un ierosināja izstrādāt dokumentus, kas regulētu ChatGPT izmantošanu TSI. No praktiskā viedokļa interesantākais bija ChatGPT iespēju demonstrēšana, ģenerējot uzdevumu jautājumus pārbaudes darbiem, rakstot pārskatus par darbiem, ģenerējot uzdevumu variantus u.c.
Demonstrējot paraugus, semināra dalībnieki arī uzsvēra, ka pat šādi iegūtie materiāli prasa rūpīgu lasīšanu un kritisku izvērtēšanu. Ilgstošas apspriešanās rezultātā, mācībspēku diskusijas parādīja, ka šāda veida risinājumi, tostarp ChatGPT, ir jauns virziens augstākās izglītības attīstībā un var palīdzēt TSI turpināt digitāli pilnveidoties.
Šobrīd TSI pētnieki un pasniedzēji aktīvi iesaistās vairākos projektos, kas ir vērsti uz augstskolas digitālo pārveidi. Piemēram, eMEDIATOR , AutoRade, DIGITEKA.