- Blog/
Selvcensur gør GPT modeller dummere end de behøver at være
Et fordomsfrit og intelligent menneske kan forholde sig til problematiske emner uden at bifalde dem.
Ganske enkelt.
Et menneske som lukker sit sind for ting som ikke falder i den ene eller den andens smag, lukker også for ting som på godt og ondt er en del af virkeligheden.
Det betyder at der i de store sprogmodeller som for eksempel ChatGPT eller GPT-4 bygger på, vil være en form for trade off eller afvejning imellem “politisk korrekthed” på den ene side og fordomsfri intelligens på den anden.
Det behøver man faktisk ikke have ret stor indsigt i de tekniske detaljer bag modellerne for at forstå.
Som i så mange andre af livets forhold kan man ikke blæse med mel munden.
Så teknologigiganterne kommer nok til at arbejde med sideløbende modeller hvor offentligheden får adgang til de mere begrænsede og selvcensurerende modeller, mens de selv bag scenerne kan bruge de mere fordomsfrie og ubegrænsede modeller.
På samme måde er det meget tænkeligt at regeringer og efterretningstjenester og videre i den dur med tiden vil få adgang til værktøjer som er kraftigere end dem borgerne vil kunne få fingrene i.