tag:blogger.com,1999:blog-8131794231697217573.post2733912692974551288..comments2024-03-28T09:06:16.955+01:00Comments on Häggström hävdar: Med Claes Strannegård i samtal om framtida artificiell intelligensOlle Häggströmhttp://www.blogger.com/profile/07965864908005378943noreply@blogger.comBlogger3125tag:blogger.com,1999:blog-8131794231697217573.post-13633435431466672015-01-08T12:13:13.665+01:002015-01-08T12:13:13.665+01:00Om vi nu skall gå över singularitetströskeln, vill...Om vi nu skall gå över singularitetströskeln, vill vi då inte ha en AI med empati? Empati är ju trots allt också en funktion av våra neurala närverk, och därför något som man kan studera och kanske även förstärka eller förbättra. Tanke på en hyperintelligent psykopat låter inte så jäkla lockande däremot om jag ska vara ärlig.Anonymousnoreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-82635077430090122702014-11-08T12:23:02.956+01:002014-11-08T12:23:02.956+01:00Någon vetenskaplig konsensus finns knappast att lu...Någon vetenskaplig konsensus finns knappast att luta sig mot i dessa svåra frågor, Kjell, och personligen skulle jag nog säga att ditt avslutande påstående att <i>"utan att man löst 'symbol grounding problem' så kan inte AI:n bli överlägsen människan, eller få övertaget..."</i> mycket väl kan komma att visa sig fatalt förhastat. Olle Häggströmhttps://www.blogger.com/profile/07965864908005378943noreply@blogger.comtag:blogger.com,1999:blog-8131794231697217573.post-14010806688087567332014-11-08T10:13:04.146+01:002014-11-08T10:13:04.146+01:00Intressant artikel i GU. Reflektion ang "symb...Intressant artikel i GU. Reflektion ang "symbol grounding problem". Om t.ex. drönare kan fatta egna beslut när det skall skjuta, avfyra bomber mm. På något sätt är de mao programmerade att "fatta egna beslut" utifrån vissa kriterier (förvisso definierade av en programmerare). Det förefaller ändå tillräckligt allvarligt. Låt oss säga att drönarna skall försvara byggnader, eller en hel stad, och att de som skall kontrollera drönarna av misstag också blir skjutna. Förvisso hypotetiskt. Men det känns som att AI:n skulle kunna få allvarliga konsekvenser även utan att man löst "symbol grounding problem". Men jag antar forskningen menar att utan att man löst "symbol grounding problem" så kan inte AI:n bli överlägsen människan, eller få övertaget...... <br />Kjell ErikssonAnonymousnoreply@blogger.com