Od dawna wspominało się o wymogu nakreślenia konkretnych wytycznych, które stanowiłyby podstawę do etycznego wykorzystywania sztucznej inteligencji i Pentagon wreszcie z tym ruszył.
Rada ds. Innowacji Obronnych właśnie opublikowała w Departamencie Obrony projekt wytycznych dotyczących etyki sztucznej inteligencji, których celem jest utrzymanie kontroli nad powstającą technologią. Niektóre z nich są bardziej praktyczne (takie jak wymaganie niezawodności) lub mają swoje korzenie w wieloletniej polityce (wymagającej ludzkiej odpowiedzialności na każdym etapie), ale inne są stosunkowo nowe zarówno dla sfery publicznej, jak i prywatnej.
Projekt wymaga sprawiedliwej sztucznej inteligencji, która unika „niezamierzonego uprzedzenia” w algorytmach, a więc stroniącej od rasizmu, czy seksizmu. SI może bowiem prowadzić do traktowania ludzi „niesprawiedliwie” nawet jeśli niekoniecznie znajdują się w sytuacjach życia i śmierci.
Dokumenty wzywają również do tworzenia sztucznej inteligencji, która zatrzyma się albo odda w ręce ludzkich operatorów, jeśli wykryje, że niedługo wyrządzi niepotrzebną szkodę. To z kolei narzuca twórcom przymus posiadania wiedzy na temat tego, jak dany system SI doszedł do danego wniosku i dlaczego podjął taką, a nie inną decyzję. Ma być w tym w pełni transparentny.
Jak to jednak zwykle bywa, pomimo tego, że projekt jest obiecujący, nadal istnieje spore wyzwanie związane z jego wdrożeniem w życie.