Egy híres, OpenAI nevű startup cég, amely mesterséges intelligenciával foglalkozik, még idén februárban meghirdette, hogy egy nagy tudású, összefüggő szöveg alkotására képes alkalmazást fog bemutatni a nagy közönségnek. A napokban azonban visszavonták algoritmusuk megosztásának szándékát, mivel találmányukat veszélyesnek tartják.

Forrás: Alexas_Fotos képe a Pixabay -en.

Mi lehet veszélyes egy szövegben?

Egy szöveg tényleg nem tud lőni, de félnek tőle, hogy forradalmat csinálnak vele. Az alkalmazás ugyanis képes olyan propaganda szövegek előállítására, amely a fehérek felsőbbrendűségéről szól. Képes továbbá marxista propaganda írásokat készíteni, de arra is használható, hogy szélsőséges iszlamista csoportokhoz verbuváló gondolatok halmazát gyártsa le.

Akkor legjobb, ha lemondunk a mesterséges szövegalkotásról?

 

Az OpenAI, melyben már rengeteg befektetői pénz van, nyilván nem hagyja abba algoritmusa fejlesztését. Most annyit tettek annak érdekében, hogy eszközük ne szolgálhasson téves ideológiákat, hogy az elkészített és tesztelt legmagasabb változatú szöveggépük helyett egy egyszerűbbet osztottak meg a nagyközösséggel. Ez azonban félmegoldás.

Mi lenne akkor a megoldás?

Sok tudós mondja, hogy a mesterséges intelligenciához nemzetközileg elfogadott normák kellenének. Azt viszont minden kisgyerek is tudja, hogy a szabályokat (normákat) meg is lehet szegni.

Az OpenAI cég szerint a fejlesztéshez új alapvetést, új előfeltételrendszert kell kidolgozni. Hogy mi lesz ennek a vége, nem tudom. Te mit gondolsz? Írd meg egy hozzászólásban!