Anta att vi har ett regressionsproblem som många vill lösa, men informationen distribueras mellan agenter --- olika agenter ser olika delmängder av funktioner. Och agenterna är inbäddade i ett nätverk (DAG). När man gör förutsägelser observeras de av dess barn.
Detta var också en del av en rolig utforskning som vi gjorde samtidigt i hur man kan införliva moderna AI-verktyg i processen att göra teoretisk och experimentell vetenskap. Vi lärde oss mycket om det också --- vi kommer att skriva mer någon gång.
@LuJiuyao Den globalt optimala linjära prediktorn behöver inte vara i intervallet för de lokalt optimala linjära prediktorerna (när funktionerna inte är oberoende), eftersom den relativa viktningen av funktioner skiljer sig åt i varje enskilt fall.
@LuJiuyao Den röda linjen visar btw vad som faktiskt händer när du kör detta på exempel från generaliseringen av den här instansen till 10 variabler. Kedjan är A1->A2->...->A10->A1->A2->...->A10->... etc går round robin för alltid. Du får ett felfall efter varje pass men det går aldrig till 0
2,56K