Obecny wpis umieszczam w blogu w imieniu kolegów, dr Bartłomieja Skowrona i dr Marcina Rojszczaka, którzy wystąpili ostatnio na prowadzonym przeze mnie Seminarium z Filozofii Nauki, z intrygującym referatem pt. „Koncepcja życzliwej sztucznej inteligencji. Zagadnienia etyczne i prawne“.
W centrum referatu stało etyczne pojęcie życzliwości (w odróżnieniu od potocznego!) oraz jego rola w projektowaniu wiarygodnych, czyli budzących zaufanie użytkownika, systemów sztucznej inteligencji (SI). Projektowanie było rozumiane szeroko, również w kontekście czegoś, co można by nazwać „infrastrukturą legislacyjną” — a więc takim kształtem regulacji prawnych, które sprzyjałyby tworzeniu systemów życzliwych dla człowieka. W tym kontekście zostały przedstawione najnowsze projekty aktów prawnych Unii Europejskiej, dotyczące aktualnych i możliwych zastosowań SI. Prelegenci oceniali je krytycznie, zwracając uwagę na konieczność głębszego powiązania prawodawstwa z etyką życzliwości.
Tyle tytułem mojego wprowadzenia.
Jako właściwy wstęp do blogowej dyskusji proponuję krótki tekst samych prelegentów, którzy zarysowują etyczne pojęcie życzliwości i stawiają pewne pytania dotyczące życzliwej sztucznej inteligencji…
Powstał on spontanicznie, w efekcie rozmyślań nad spostrzeżeniami i komentarzami uczestników seminarium.
Gorąco zachęcam do rozmowy wszystkich czytelników bloga, nie tylko uczestników seminarium — Paweł Stacewicz
A OTO INICJUJĄCY DYSKUSJĘ TEKST PRELEGENTÓW:
Pojęcie życzliwości pojawia się zarówno w tekstach starożytnych (chociażby w Etyce Nikomachejskiej Arystotelesa), jak i zupełnie współczesnych (spośród tekstów polskich zasługują na uwagę pisma Marii Ossowskiej i Czesława Znamierowskiego). Część etyków, w szczególności etycy angielskiego oświecenia moralnego widzieli w życzliwości podstawę wszelkiej moralności i postulowali prawo o powszechnej obowiązywalności życzliwości.
Niemniej, gdy wspominamy o życzliwości przy okazji różnych publicznych dyskusji, najczęściej spotykamy się z pobłażliwym uśmiechem, który z jednej strony łaskawie i przyjaźnie wspiera ideę wołającą o powszechną życzliwość, a z drugiej strony lekceważąco odnosi się do siły i doniosłości życzliwości. Za tą spontaniczną pobłażliwością stoi takie mniej więcej rozumowanie: „przecież uprzejmość, serdeczność i empatia nie mogą stanowić jakieś trwałej podstawy dla realnych rozstrzygnięć moralnych. Jedni są mili, a inni nie są mili. I tyle w temacie życzliwości”.
W przeciwieństwie do takiej postawy twierdzimy, że życzliwość nie jest ani uprzejmością, ani serdecznością, ani empatią – choć z tymi fenomenami współwystępuje. Co więcej, ze względu na swą siłę oddziaływania ma istotne znaczenie dla projektowania systemów sztucznej inteligencji, na przykład takich, które byłyby używane w zarządzaniu, administracji publicznej czy systemie edukacji. Zatem to nie tyle w temacie!
Twierdzimy, że życzliwość nie jest ani uprzejmością, ani byciem miłym, ani empatią. Wspierając się Etyką Nikomachejską Arystotelesa przyjmujemy, że istotą życzliwości jest dbanie o dobro drugiej osoby: dokładnie o to, co jest właśnie dla tej osoby dobre.
Rodzic może być życzliwy dla dziecka, silnie motywując je do podejmowania działań, które służą jego rozwojowi — niezależnie od tego jednak, może być momentami nieuprzejmy. Podobnie urzędnik, załatwiając sprawę zgodnie z interesem obywatela, może (a nawet powinien!) być życzliwy, choć nie zawsze jest uprzejmy. Oczywiście, życzliwości często towarzyszą uprzejmość, empatia i serdeczność. Nie one jednak są istotą życzliwej postawy.
Wróćmy jednak do sztucznej inteligencji i jej zastosowań publicznych, takich jak publiczna administracja. Wywołując temat życzliwości SI, natykamy się również na pobłażliwe przytakiwanie, wsparte niejawnym sarkastycznym powątpiewaniem: tak, tak, mamy przecież zasadę życzliwej interpretacji w KPA a inteligentne automaty w urzędach, zgodnie z tą zasada, będą się do nas pięknie uśmiechać.
Wiarygodność obliczeniowa SI, niezależnie od jej konkretnych zastosowań, jest mierzona często jej przejrzystością, umiejętnością wyjaśniania podejmowanych decyzji, zgodnością tych decyzji z przewidywaniami itd. Niemniej, naszym zdaniem, nie jest to droga, która zaprowadzi nas do takiej SI, jakiej człowiek, w szczególności obywatel, będzie ufał.
Co z tego, że system jest przejrzysty, jeśli nie bierze pod uwagę interesu i preferencji samego obywatela? Nie jest to strategia, która gwarantuje spełnienie oczekiwań UE w stosunku do SI. Dopiero uwzględnienie życzliwości (i stojących za nią rozwiązań technicznych), pozwoli na wypracowanie takiego modelu prawnego i funkcjonalnego SI w zastosowaniach publicznych, który spełni oczekiwania pokładane w wiarygodnej SI.
Życzliwość SI to nie jest uśmiech robota upodabniającego się do człowieka (taki robot zresztą, im bardziej przypomina człowieka, tym bardziej budzi jego nieufność). SI, jeśli ma być wiarygodna w zastosowaniach publicznych, to powinna być życzliwa, a to oznacza, że powinna brać pod uwagę dobro obywatela.
Zapraszamy do dyskusji – Bartłomiej Skowron i Marcin Rojszczak.