ChatGPT oblicza dopasowanie anteny
    djbpm pisze:

    Jak zadałem ChatGPT trochę trudniejsze pytanie, najpierw o wzór na coś tam, a później podałem wartości aby to policzył z użyciem tego wzoru. Nic z tego nie wyszło. Raz, że wzory podał błędne, (układ 3 równań) to później mieszał te równania między sobą jak liczył, a dodatkowo mylił + z -, i to w 1 zdaniu w stylu:
    podstawiając A=3 B=4 do wzoru A+B=C otrzymujemy 3-4=-1
    Natomiast opis i komentarze którymi tłumaczył co niby liczy były wręcz perfekcyjnie prawidłowe, więc "zrozumiał" moje pytanie, tylko wzory sobie zmyślił.


O, krótkofalowcy odkrywają, że ChatGPT to model do generowania tekstu. Składnie WYGLĄDAJĄCEGO tekstu, ale tylko wyglądającego. Jeżeli merytorycznie ma sens to jest to czysty przypadek. ChatGPT nie rozumie co się do niego pisze, ChatGPT nie rozumie świata, ani zależności w nim panujących, ChatGPT nie wykonuje obliczeń. ChatGPT rzuca losowo słowami tak, by wyglądały z grubsza jak coś co już widział na etapie uczenia co najbardziej pasowało do tego co użytkownik od niego chce.


  PRZEJDŹ NA FORUM