• TDCN@feddit.dk
    link
    fedilink
    arrow-up
    3
    ·
    edit-2
    9 months ago

    Til gengæld så hvis det er på en blockchain kan man, når en bot bliver fundet gå tilbage gennem kæden og lukke alle ude som har været med til at godkende. Måske det kommer til at ødelægge anonymiteten, men det kan jeg ikke lige gennemskue. Lad os sige et der skal 10 mennesker til at godkende et nyt menneske. Man kan så gå ind og kigge på afstanden eller relationerne mellem dem som godkender dig kan man måske spotte eller blokere endnu en AI bot. Hvis du f.eks bliver opdaget og brænder en konto kan du ikke umiddelbart benytte de samme 10 mennesker til at godkende igen. De fleste bots benytter jo at de lynhurtigt kan oprette nye konti men hvis de hver gang skal finde nye virkelig mennesker at godkende med fysik ved at scanne en app så sætter det hurtigt en kæp i hjulet.

    • SorteKanin@feddit.dkOPM
      link
      fedilink
      arrow-up
      1
      ·
      9 months ago

      Hmm jeg kan ikke rigtig se hvordan. Jeg synes også det lyder som om du er nødt til at antage at folk kun har en bruger registreret i denne block-chain, og jeg ved ikke hvordan du vil håndhæve det.

      Jeg tror desværre ikke der er nogen let løsning :/

      • TDCN@feddit.dk
        link
        fedilink
        arrow-up
        3
        ·
        9 months ago

        Jeg er enig i at det sikkert ikke vil fungere i praksis. Det var som sagt bare en tanke. Min pointer er nok mest at det bliver nødt til at være et system hvor “straffen” for at snyde en AI ind, er så hård at hver gang du gør det bliver det sværere og sværere både for dig selv men også for alle dem som hjalp dig (bevidst eller ubevidst (godkende alle fremmede man møde)) som nu igen skal ud og godkende sig selv igen. Jeg ser ikke noget i vejen for at du kan have flere brugere hvis du vil. Det hele bygger dog på at du kan finde og buste AI. Hvis ikke du kan det som udgangspunkt så vil det ikke virke Men igen, der er sikkert noget mere jeg overser med denne ide som gør det ubrugeligt.