Do głównych ograniczeń narzędzi GenAI należy możliwość uzyskiwania nieprawidłowych wyników. GenAI nie jest bezbłędna, wyniki mogą być nieprawidłowe, odwoływać się do nieistniejących źródeł co nosi nazwę „halucynacji” i może powodować rozprzestrzenianie się dezinformacji. Sama firma OpenAI, która stworzyła narzędzie ChatGPT pisze w warunkach użytkowania, że:
„(d) Accuracy. Artificial intelligence and machine learning are rapidly evolving fields of study. We are constantly working to improve our Services to make them more accurate, reliable, safe and beneficial. Given the probabilistic nature of machine learning, use of our Services may in some situations result in incorrect Output that does not accurately reflect real people, places, or facts. You should evaluate the accuracy of any Output as appropriate for your use case, including by using human review of the Output.”
Korzystając z narzędzi GenAI należy też pamiętać, że możesz dostać różne odpowiedzi nawet jeśli użyjesz tego samego prompta (zapytania). Narzędzia generatywnej sztucznej inteligencji nie są neutralne, opierają swoje odpowiedzi na treściach wyprodukowanych przez ludzi, które mogą zawierać uprzedzenia oraz stereotypy. Należy również pamiętać, że treści te w sporej części nie są w żaden sposób weryfikowane. Wiele treści nie jest dostępnych w językach narodowych co powoduje przewagę odpowiedzi opartych o źródła anglojęzyczne. Dostęp do GenAI może pogłębiać „przepaść cyfrową” pomiędzy krajami bogatszymi a biedniejszymi. Modele GenAI są często szkolone na materiałach chronionych prawem autorskim, więc użytkownicy korzystający z wyników pracy sztucznej inteligencji mogą je nawet nieświadomie łamać. GenAI nie oferuje również ochrony prywatności oraz danych wrażliwych, o czym należy pamiętać np. opracowując wyniki przeprowadzonych badań. Nie należy zasilać modeli, żadnymi danymi których byśmy nie umieścili na publicznej stronie internetowej.