Strona GłównaMapa pracowni / niemiejscSztuka w niemiejscachMuzeum JutraNotatki akustyczne z przypadkuDźwięki z odzyskuSploty. Choreografie społeczneCiała PamięciZielone Strategie kuratorskieZasobySztuka w procesieo ProjekcieDołącz

Wróć do strategii

Moduł 5: Wykorzystanie narzędzi opartych na AI w zielonym kuratorstwie i zarządzaniu wiedzą instytucjonalną

Cel modułu

Celem modułu jest wyposażenie uczestników w wiedzę pozwalającą wykorzystywać narzędzia oparte na sztucznej inteligencji jako wsparcie pracy kuratorskiej, analitycznej i organizacyjnej w instytucjach kultury. Moduł koncentruje się na praktycznych zastosowaniach AI w analizie danych dotyczących funkcjonowania wystaw, planowaniu narracji ekspozycji, porządkowaniu informacji oraz wspieraniu procesów decyzyjnych związanych z odpowiedzialnością środowiskową. Uczestnicy uczą się rozumieć AI jako element infrastruktury pracy instytucjonalnej, osadzony w ramach etycznych i organizacyjnych.

Zakres merytoryczny modułu

1. Sztuczna inteligencja jako narzędzie pracy instytucji kultury

W tej części modułu omawiane są:

  • podstawowe kategorie narzędzi opartych na AI wykorzystywanych w sektorze kultury,
  • relacja między automatyzacją a wsparciem pracy zespołów kuratorskich i organizacyjnych,
  • miejsce AI w strukturze instytucji kultury jako narzędzia wspomagającego analizę i porządkowanie informacji,
  • znaczenie świadomego doboru narzędzi do skali i charakteru instytucji,
  • rola kompetencji zespołu w odpowiedzialnym korzystaniu z rozwiązań opartych na AI.

Ten segment buduje podstawowe rozumienie technologii jako elementu środowiska pracy.

2. Analiza danych dotyczących publiczności i użytkowania wystaw

W tej części uczestnicy poznają:

  • rodzaje danych generowanych przez instytucje kultury w trakcie funkcjonowania wystaw,
  • możliwości wykorzystania narzędzi AI do porządkowania i interpretowania danych jakościowych i ilościowych,
  • analizę wzorców obecności publiczności w czasie i przestrzeni,
  • relację między danymi o użytkowaniu wystaw a decyzjami programowymi i organizacyjnymi,
  • znaczenie analizy danych w kontekście odpowiedzialnego planowania zasobów.

Segment ten pokazuje, w jaki sposób dane publiczności wspierają refleksję nad skalą i intensywnością działań instytucji.

3. Wsparcie planowania narracji wystaw i treści edukacyjnych

Ta część modułu koncentruje się na:

  • wykorzystaniu AI do porządkowania dużych zbiorów treści kuratorskich i edukacyjnych,
  • wspomaganiu pracy nad strukturą narracji wystaw i materiałów towarzyszących,
  • analizie spójności komunikacyjnej programów wystawienniczych,
  • tworzeniu wariantów narracyjnych dostosowanych do różnych grup odbiorców,
  • wspieraniu zespołów edukacyjnych w pracy nad treściami cyfrowymi.

Uczestnicy uczą się traktować AI jako narzędzie wspierające refleksję nad językiem i strukturą przekazu.

4. Automatyzacja obiegu informacji i dokumentacji instytucjonalnej

W tej części omawiane są:

  • zastosowania AI w porządkowaniu dokumentacji projektowej i instytucjonalnej,
  • wspieranie procesów archiwizacji i wyszukiwania informacji,
  • generowanie podsumowań i zestawień na potrzeby zespołów i zarządzania,
  • integracja narzędzi AI z codziennym obiegiem informacji w instytucji,
  • znaczenie automatyzacji dla redukcji obciążenia administracyjnego zespołów.

Ten segment pokazuje, w jaki sposób technologia porządkuje wiedzę instytucjonalną i wspiera ciągłość pracy.

5. Ramy etyczne i odpowiedzialne korzystanie z AI w instytucjach kultury

W tej części uczestnicy poznają:

  • podstawowe zasady etyczne związane z wykorzystaniem AI w sektorze kultury,
  • znaczenie przejrzystości procesów analitycznych i decyzyjnych,
  • relację między technologią a odpowiedzialnością instytucjonalną,
  • ochronę danych publiczności i zespołów instytucji,
  • rolę regulacji wewnętrznych w świadomym korzystaniu z narzędzi AI.

Segment ten osadza wykorzystanie technologii w ramach odpowiedzialności społecznej i organizacyjnej.

Narzędzia modułowe

Do modułu przypisany jest zestaw narzędzi wspierających praktyczne zastosowanie treści:

  • Przegląd typów narzędzi AI możliwych do zastosowania w instytucjach kultury wraz z opisem funkcji
  • Schemat analizy danych publiczności z wykorzystaniem narzędzi wspierających interpretację
  • Model wykorzystania AI do porządkowania narracji i treści edukacyjnych
  • Zestaw zasad odpowiedzialnego korzystania z AI w pracy instytucjonalnej

Efekt uczenia się po ukończeniu modułu

Po ukończeniu modułu uczestnik:

  • rozumie możliwości wykorzystania narzędzi opartych na AI w pracy instytucji kultury,
  • potrafi identyfikować obszary, w których technologia wspiera zielone strategie kuratorskie,
  • zna zasady analizy danych publiczności w kontekście odpowiedzialności środowiskowej,
  • posiada narzędzia umożliwiające świadome i etyczne wdrażanie rozwiązań opartych na AI.

Celem modułu jest wyposażenie uczestników w wiedzę pozwalającą wykorzystywać narzędzia oparte na sztucznej inteligencji jako wsparcie pracy kuratorskiej, analitycznej i organizacyjnej w instytucjach kultury. Moduł koncentruje się na praktycznych zastosowaniach AI w analizie danych dotyczących funkcjonowania wystaw, planowaniu narracji ekspozycji, porządkowaniu informacji oraz wspieraniu procesów decyzyjnych związanych z odpowiedzialnością środowiskową. Uczestnicy uczą się rozumieć AI jako element infrastruktury pracy instytucjonalnej, osadzony w ramach etycznych i organizacyjnych.

W perspektywie instytucjonalnej AI przestaje być gadżetem od „szybkich tekstów” i staje się narzędziem infrastrukturalnym: takim, które wpływa na obieg informacji, jakość opisów, tempo produkcji, sposób podejmowania decyzji, a także na relacje władzy między instytucją, dostawcami technologii i publicznością. W tym module AI jest traktowana jako warstwa robocza nakładana na istniejące procesy: archiwa, rejestry, dokumentację projektową, notatki zespołu, obserwacje użytkowania wystaw, zasoby edukacyjne. Największa wartość pojawia się tam, gdzie instytucja ma nadmiar materiału (tekst, zdjęcia, metadane, notatki, formularze, maile, pliki z projektów) i jednocześnie brakuje jej czasu oraz pojemności poznawczej, aby tę masę uporządkować w sposób umożliwiający działanie.

Moduł jest też osadzony w realiach środowiskowych infrastruktury cyfrowej. Rozwój AI wiąże się z rosnącymi obciążeniami centrów danych i zużyciem energii, co ma znaczenie dla instytucji, które budują zielone strategie i chcą spójności między deklaracjami a praktyką narzędziową. Międzynarodowe analizy wskazują na rosnący popyt na energię w sektorze centrów danych, napędzany m.in. przez rozwój AI, a dyskusja o odpowiedzialności cyfrowej coraz częściej dotyka konkretnych wyborów: kiedy używać modeli ogólnych, kiedy narzędzi wyspecjalizowanych, jak ograniczać liczbę iteracji, jak budować procedury, które redukują „przemiał” danych w organizacji.  

1. Sztuczna inteligencja jako narzędzie pracy instytucji kultury

Podstawowe kategorie narzędzi opartych na AI wykorzystywanych w sektorze kultury układają się dziś w kilka praktycznych rodzin, które odpowiadają na konkretne zadania instytucji. Pierwsza rodzina obejmuje narzędzia językowe (modele generujące i analizujące tekst), wykorzystywane do streszczania dokumentów, porządkowania notatek, budowania wariantów opisów, redagowania materiałów roboczych i przygotowywania struktur narracyjnych. Druga rodzina obejmuje narzędzia do analizy danych i wzorców (od prostych klasyfikatorów po modele predykcyjne), przydatne przy pracy z danymi o frekwencji, zachowaniach publiczności, obciążeniach użytkowania, logach technicznych i zasobach eksploatacyjnych. Trzecia rodzina obejmuje narzędzia do pracy z obrazem (rozpoznawanie, tagowanie, wyszukiwanie wizualne, ekstrakcja metadanych), istotne w kontekście archiwów i dokumentacji wystaw. Czwarta obejmuje narzędzia do wyszukiwania semantycznego i „asystentów wiedzy” opartych na wewnętrznych zasobach instytucji (bazy opisów, instrukcje, protokoły, rejestry, raporty), które przekształcają archiwum z magazynu plików w aktywny zasób operacyjny. Piąta rodzina dotyczy automatyzacji obiegu pracy (klasyfikacja maili, generowanie podsumowań spotkań, wypełnianie szablonów, wykrywanie braków w dokumentacji). Wreszcie istnieje rodzina narzędzi wyspecjalizowanych dla sektora dziedzictwa i danych kulturowych, rozwijanych w europejskich inicjatywach oraz platformach szkoleniowych dla instytucji kultury.  

Relacja między automatyzacją a wsparciem pracy zespołów kuratorskich i organizacyjnych wymaga precyzyjnego rozróżnienia. Automatyzacja ma sens tam, gdzie czynność jest powtarzalna i ma jasne kryteria jakości, a błędy są łatwe do wychwycenia: porządkowanie plików, ujednolicanie formatów, tworzenie indeksów, generowanie list, kontrola kompletności dokumentacji. Wsparcie (augmentacja) ma sens tam, gdzie praca jest interpretacyjna i wymaga odpowiedzialności instytucji: narracja, język opisów, decyzje o priorytetach, selekcja obiektów, dobór kontekstów. W instytucji kultury błędy w obszarze interpretacji mają ciężar reputacyjny i etyczny; dlatego AI w tych obszarach działa jako narzędzie robocze, a nie zastępstwo. Ten podział chroni instytucję przed mechanizmem, w którym „szybciej” zaczyna wypierać „dokładniej”, a później koszty wracają w postaci korekt, kryzysów komunikacyjnych i utraty wiarygodności.

Miejsce AI w strukturze instytucji kultury jako narzędzia wspomagającego analizę i porządkowanie informacji polega na tym, że AI wchodzi do instytucji przez istniejące wąskie gardła: rozproszenie wiedzy, brak standardów dokumentowania, brak czasu na raportowanie, nadmiar maili i plików, trudności w przekazywaniu wiedzy między działami i między projektami. AI jest tu katalizatorem zmiany pod warunkiem, że instytucja ma minimalne standardy: nazewnictwo plików, wersjonowanie, struktury folderów, szablony protokołów, rejestry decyzji, minimalny zestaw wskaźników. W praktyce AI wzmacnia jakość instytucjonalną wtedy, gdy instytucja ma już elementarną „higienę informacyjną”. W przeciwnym razie AI przyspiesza chaos: generuje kolejne warianty, kolejne pliki, kolejne podsumowania, które nie mają gdzie osiąść.

Znaczenie świadomego doboru narzędzi do skali i charakteru instytucji obejmuje trzy warstwy: warstwę zadania, warstwę ryzyka i warstwę kosztu środowiskowego. Warstwa zadania wymaga odpowiedzi czy narzędzie ma pomóc w streszczeniu, klasyfikacji, wyszukiwaniu, ekstrakcji danych, czy w generowaniu treści. Warstwa ryzyka dotyczy danych (w tym wrażliwych), praw autorskich i reputacji. Warstwa kosztu środowiskowego dotyczy wyboru rozwiązań: modele lżejsze i wyspecjalizowane często są wystarczające i mniej zasobożerne, a praca na lokalnych zasobach (wewnętrzne dokumenty) bywa bardziej efektywna niż wielokrotne generowanie tekstów od zera.

Rola kompetencji zespołu w odpowiedzialnym korzystaniu z rozwiązań opartych na AI sprowadza się do stworzenia wewnętrznej umiejętności trzech pytań: „z czego to powstało?”, „co może pójść źle?” oraz „kto ponosi odpowiedzialność za wynik?”. Ta kompetencja bywa ważniejsza niż zaawansowana wiedza techniczna. Instytucja potrzebuje też minimalnego modelu zarządzania ryzykiem AI, nawet w wersji lekkiej, opartego na uznanych ramach, które porządkują myślenie o ryzykach w całym cyklu użycia narzędzia. Tu przydatne są m.in. NIST AI RMF, który opisuje podejście do mapowania, mierzenia i zarządzania ryzykiem AI w sposób elastyczny, możliwy do zastosowania przez organizacje o różnych skalach.
 

2. Analiza danych dotyczących publiczności i użytkowania wystaw

Rodzaje danych generowanych przez instytucje kultury w trakcie funkcjonowania wystaw obejmują dane ilościowe oraz jakościowe. Dane ilościowe zwykle pochodzą z systemów sprzedaży biletów, liczników wejść, rezerwacji, statystyk stron internetowych i mediów społecznościowych, a także z wewnętrznych rejestrów operacyjnych (logi urządzeń AV, rejestry usterek, harmonogramy pracy). Dane jakościowe obejmują obserwacje zespołu sal, notatki edukatorów, ankiety i komentarze publiczności, zapisy rozmów, uwagi z oprowadzań, raporty z dyżurów, fotografie dokumentujące zużycie przestrzeni. W instytucjach pracujących „bez wielkich systemów” to właśnie dane jakościowe bywają najbogatsze, a jednocześnie najmniej wykorzystane, bo wymagają czasu na czytanie i kategoryzację.

Możliwości wykorzystania narzędzi AI do porządkowania i interpretowania danych jakościowych i ilościowych polegają przede wszystkim na trzech funkcjach: klasyfikacji, ekstrakcji i syntezie. Klasyfikacja pozwala grupować uwagi publiczności i notatki zespołu według tematów (np. czytelność, komfort, technologia, kolejki, orientacja w przestrzeni, dostępność). Ekstrakcja pozwala wydobywać z luźnych notatek konkretne fakty: miejsca problemowe, powtarzalne pytania, rodzaje interwencji, częstotliwość awarii. Synteza pozwala budować krótkie raporty robocze, które są „czytelną narracją danych” dla zespołu. W tej logice AI działa jako młyn do materiału jakościowego: zamienia rozproszone notatki w zestaw kategorii, wniosków i hipotez. Odpowiedzialność instytucji polega na tym, że synteza jest weryfikowana przez zespół, a nie traktowana jako prawda objawiona.

Analiza wzorców obecności publiczności w czasie i przestrzeni może być prowadzona w wersji minimalistycznej: tygodniowe próbki, segmentacja dni i godzin, porównanie okresów, mapowanie stref intensywnych. AI w tym procesie pomaga budować powtarzalne raporty: porównania tygodni, sygnały anomalii, korelacje między wydarzeniami a ruchem w strefach, wykrywanie okresów, w których obciążenie obsługi rośnie. W kontekście zielonego kuratorstwa takie analizy mają znaczenie praktyczne: pozwalają dostosować scenariusze pracy energii i technologii do realnego użytkowania, a także planować obsadę w sposób redukujący „pustą pracę” przy niskiej intensywności.

Relacja między danymi o użytkowaniu wystaw a decyzjami programowymi i organizacyjnymi jest dwukierunkowa. Decyzje kuratorskie i projektowe tworzą wzorce użytkowania (gdzie publiczność się zatrzymuje, co wymaga obsługi, co się psuje, co wymaga energii). Dane użytkowania pokazują konsekwencje tych decyzji i budują materiał do standardów instytucjonalnych. W tym module istotne jest przesunięcie perspektywy: analiza danych nie jest wyłącznie działaniem promocyjnym lub marketingowym, tylko elementem planowania zasobów instytucji i jakości doświadczenia.

Znaczenie analizy danych w kontekście odpowiedzialnego planowania zasobów polega na tym, że instytucja może przestać działać „na wyczucie” w obszarach energii, utrzymania, serwisu i obsługi sal. AI wspiera tu przejście od anegdoty do wzorca: pojedyncza uwaga staje się kategorią, pojedyncza awaria staje się trendem, pojedyncza obserwacja o tłoku staje się mapą stref. Taki materiał zasila decyzje: gdzie uprościć rozwiązania, gdzie wzmocnić elementy, gdzie zmienić scenariusz działania technologii, gdzie skrócić czas pracy urządzeń.

3. Wsparcie planowania narracji wystaw i treści edukacyjnych

Wykorzystanie AI do porządkowania dużych zbiorów treści kuratorskich i edukacyjnych odpowiada na realny problem instytucji: teksty powstają w wielu miejscach i w wielu wersjach, a spójność bywa efektem heroicznej pracy redakcyjnej na końcu procesu. AI może pracować wcześniej, na etapie, kiedy narracja jest materiałem roboczym. Funkcją AI nie jest tu „pisanie w miejsce kuratora”, tylko porządkowanie, wykrywanie luk, sprzeczności, powtórzeń oraz rozjazdów między językiem kuratorskim a językiem edukacyjnym.

Wspomaganie pracy nad strukturą narracji wystaw i materiałów towarzyszących obejmuje kilka operacji: tworzenie mapy pojęć (jakie pojęcia występują, które dominują, które znikają), tworzenie wariantów struktury (jak inaczej można ułożyć kolejność wątków), wykrywanie miejsc wymagających doprecyzowania definicji, wskazywanie fragmentów o nadmiernym żargonie, a także identyfikację „martwych odcinków” narracji, w których tekst nie ma funkcji dla odbiorcy. W praktyce instytucja może budować „warsztat narracyjny” oparty o iteracje: zespół przygotowuje materiał, AI pomaga go zmapować i zdiagnozować, a zespół podejmuje decyzje. Ten tryb jest szczególnie użyteczny tam, gdzie instytucja chce utrzymać jakość doświadczenia bez eskalacji produkcyjnej: lepsza struktura i język bywają bardziej efektywne niż dołożenie kolejnych urządzeń i elementów.

Analiza spójności komunikacyjnej programów wystawienniczych dotyczy zgodności między różnymi warstwami przekazu: opis wystawy, teksty na sali, materiały edukacyjne, strona internetowa, komunikacja promocyjna, komunikaty organizacyjne. AI może wspierać wykrywanie sprzeczności oraz miejsc, w których instytucja obiecuje doświadczenie, którego wystawa nie dostarcza, albo odwrotnie: wystawa oferuje wartość, której komunikacja nie umie nazwać. W kontekście zielonego kuratorstwa spójność komunikacyjna ma też wymiar etyczny: instytucja powinna mówić o działaniach środowiskowych w sposób rzetelny i proporcjonalny, unikając inflacji deklaracji względem skali realnych zmian.

Tworzenie wariantów narracyjnych dostosowanych do różnych grup odbiorców jest obszarem, w którym AI bywa kusząca, a jednocześnie ryzykowna. W instytucji kultury wariantowanie języka musi być sprzężone z odpowiedzialnością: uproszczenie nie może spłaszczać sensów, a różnicowanie nie może prowadzić do nierównego dostępu do wiedzy. AI może jednak wspierać tworzenie wariantów roboczych: wersji krótszych, wersji łatwiejszych językowo, wersji dla osób o różnym poziomie kompetencji kulturowych, wersji dla edukatorów. Kluczowe jest utrzymanie kontroli redakcyjnej i merytorycznej.

Wspieranie zespołów edukacyjnych w pracy nad treściami cyfrowymi obejmuje też zarządzanie zasobem: przygotowanie banku pytań i odpowiedzi, konspektów zajęć, opisów obiektów, a także materiałów dla nauczycieli. AI może pomóc w budowaniu indeksów, tagowaniu i wyszukiwaniu treści wewnątrz instytucji, dzięki czemu materiał edukacyjny działa jako zasób wielokrotnego użytku, a nie produkt jednorazowy.

4. Automatyzacja obiegu informacji i dokumentacji instytucjonalnej

Zastosowania AI w porządkowaniu dokumentacji projektowej i instytucjonalnej są jednym z najbardziej „zielonych” zastosowań w tym module, rozumianych pragmatycznie: redukują czas pracy, redukują liczbę błędów w dokumentacji, wzmacniają pamięć instytucji, a przez to ograniczają powtarzanie tych samych działań w kolejnych projektach. AI może wspierać automatyczne tworzenie spisów dokumentów, kontrolę kompletności teczki projektu, ujednolicanie nazw plików, wykrywanie duplikatów, budowanie streszczeń raportów i protokołów.

Wspieranie procesów archiwizacji i wyszukiwania informacji jest szczególnie ważne w instytucjach, gdzie wiedza o wystawach i decyzjach ginie razem z końcem projektu lub rotacją pracowników. W tym obszarze rośnie znaczenie podejścia polegającego na budowaniu „asystenta wiedzy” opartego o wewnętrzne materiały: polityki, standardy, raporty po wystawie, rejestry decyzji, instrukcje techniczne, listy kontaktów do dostawców i serwisu, katalog zasobów magazynowych. Taki asystent nie musi być rozbudowany technicznie; kluczowe jest to, że pracuje na treści instytucji, a nie na internetowych uogólnieniach. W praktyce jest to narzędzie, które skraca ścieżkę dostępu do wiedzy i ogranicza „puste pytania” krążące w organizacji.

Generowanie podsumowań i zestawień na potrzeby zespołów i zarządzania może dotyczyć: podsumowań spotkań produkcyjnych, podsumowań tygodniowych użytkowania, zestawień usterek, zestawień kosztów materiałów eksploatacyjnych, list ryzyk, list decyzji do zatwierdzenia. AI pomaga tu zwłaszcza w konwersji z języka „spotkania” do języka „działania”: co trzeba zrobić, kto ma właścicielstwo, jaki jest termin, co jest ryzykiem. W zielonym kuratorstwie takie podsumowania mają dodatkową rolę: utrzymują decyzje środowiskowe w obiegu, włączają je w standardowe mechanizmy zarządzania projektem, redukują „zapominanie” o konsekwencjach użytkowania.

Integracja narzędzi AI z codziennym obiegiem informacji w instytucji oznacza, że instytucja tworzy stałe miejsca użycia: jeden format protokołu, jeden format raportu po wystawie, jeden format rejestru decyzji, jeden zestaw wskaźników. AI działa wtedy jako „silnik” obsługujący te formaty: generuje wstępne wersje, wykrywa braki, przygotowuje zestawienia. W przeciwnym razie AI staje się narzędziem indywidualnym, używanym prywatnie przez pracowników, co skutkuje różnicami jakości i brakiem spójności instytucjonalnej.

Znaczenie automatyzacji dla redukcji obciążenia administracyjnego zespołów polega na tym, że administracja w instytucji kultury często rośnie szybciej niż zasoby. AI może przejąć część pracy „formatującej” i „porządkującej”, a czas zespołu przesunąć w stronę pracy merytorycznej. Warunkiem jest przyjęcie zasady: AI obsługuje powtarzalne czynności, a odpowiedzialność merytoryczna pozostaje po stronie ludzi.

5. Ramy etyczne i odpowiedzialne korzystanie z AI w instytucjach kultury

Podstawowe zasady etyczne związane z wykorzystaniem AI w sektorze kultury obejmują prawa człowieka, przejrzystość, odpowiedzialność, niedyskryminację, ochronę danych, bezpieczeństwo, a także wymiar środowiskowy i społeczny. W instytucji kultury dochodzi do tego specyficzny komponent: zaufanie publiczne i rola instytucji jako producenta wiedzy. Dlatego etyka AI w muzeum czy galerii dotyczy nie tylko danych, ale też autorytetu: kto mówi, na jakiej podstawie, jaką jakość gwarantuje instytucja, czy instytucja ujawnia użycie AI w punktach kontaktu z publicznością. Globalne i europejskie ramy etyczne (m.in. UNESCO) wskazują na znaczenie ochrony praw, przejrzystości i ludzkiego nadzoru, a europejskie wytyczne dla kultury rozwijają te wątki wprost w odniesieniu do dziedzictwa i polityk kulturalnych.  

Znaczenie przejrzystości procesów analitycznych i decyzyjnych obejmuje dwie sytuacje. Pierwsza dotyczy sytuacji wewnętrznych: zespół powinien wiedzieć, gdzie użyto AI do syntezy danych, podsumowań, klasyfikacji, aby móc wykryć błędy i uprzedzenia. Druga dotyczy sytuacji publicznych: publiczność powinna móc rozpoznać, kiedy wchodzi w interakcję z systemem AI (np. chatbot na stronie, automatyczne odpowiedzi), a instytucja powinna oznaczać syntetyczne treści, jeśli mają charakter informacyjny. W Europie znaczenie przejrzystości wzmacniają przepisy dotyczące obowiązków transparentności w odniesieniu do określonych zastosowań AI.  

Relacja między technologią a odpowiedzialnością instytucjonalną wymaga jasnego rozdziału: dostawca narzędzia może odpowiadać za część techniczną, instytucja odpowiada za sposób użycia, kontekst, jakość informacji i skutki dla publiczności. To rozdzielenie jest krytyczne przy narzędziach generatywnych, które mogą „brzmieć pewnie” nawet przy błędach, a w instytucji kultury pewność brzmienia jest częścią autorytetu.

Ochrona danych publiczności i zespołów instytucji jest obszarem, w którym instytucja musi mieć minimalne procedury: klasyfikację danych (co jest wrażliwe, co jest osobowe, co jest wewnętrzne), zasady wprowadzania danych do narzędzi zewnętrznych, zasady anonimizacji, zasady przechowywania i retencji, zasady dostępu. Dobre praktyki i wytyczne regulatorów danych (na przykład w Wielkiej Brytanii) pokazują, że sektor publiczny i instytucje pracujące na danych osobowych muszą traktować AI jako obszar stałej zgodności z zasadami przejrzystości, sprawiedliwości i rozliczalności.  

Rola regulacji wewnętrznych w świadomym korzystaniu z narzędzi AI polega na tym, że instytucja powinna mieć krótką, jasną politykę użycia AI, powiązaną z praktykami pracy i ryzykami. Regulacje wewnętrzne powinny obejmować: dozwolone zastosowania, niedozwolone zastosowania, zasady pracy na danych, zasady oznaczania treści, zasady weryfikacji, zasady archiwizacji wyników, zasady odpowiedzialności. Takie regulacje można oprzeć o uznane standardy zarządzania ryzykiem AI (ISO/IEC 23894) oraz ramy ryzyka (NIST AI RMF), upraszczając je do skali instytucji kultury.  

Narzędzia modułowe

Do modułu przypisane są narzędzia wspierające praktyczne zastosowanie wiedzy. Mają charakter koncepcyjny i służą porządkowaniu myślenia oraz rozmów instytucjonalnych. Wprowadzają wspólny język, który umożliwia przeniesienie refleksji środowiskowej z poziomu deklaracji na poziom decyzji.

Przeglądaj moduły:

Przeglądaj wszystkie