std::atomic
esiste perché molti ISA hanno il supporto hardware diretto per questo
Ciò che lo standard C ++ dice std::atomic
è stato analizzato in altre risposte.
Quindi ora vediamo cosa std::atomic
compila per ottenere un diverso tipo di intuizione.
Il principale takeaway di questo esperimento è che le moderne CPU hanno il supporto diretto per le operazioni con numeri interi atomici, ad esempio il prefisso LOCK in x86, e std::atomic
sostanzialmente esiste come interfaccia portatile per quelle istruzioni : cosa significa l'istruzione "lock" nell'assemblaggio x86? In aarch64, sarebbe usato LDADD .
Questo supporto consente alternative più rapide a metodi più generali come std::mutex
, che possono rendere atomiche sezioni di istruzioni multiple più complesse, al costo di essere più lente rispetto al std::atomic
fatto std::mutex
che effettua futex
chiamate di sistema in Linux, che è molto più lenta delle istruzioni utente emesse da std::atomic
, vedi anche: std :: mutex crea una recinzione?
Consideriamo il seguente programma multi-thread che incrementa una variabile globale su più thread, con diversi meccanismi di sincronizzazione a seconda della definizione del preprocessore utilizzata.
main.cpp
#include <atomic>
#include <iostream>
#include <thread>
#include <vector>
size_t niters;
#if STD_ATOMIC
std::atomic_ulong global(0);
#else
uint64_t global = 0;
#endif
void threadMain() {
for (size_t i = 0; i < niters; ++i) {
#if LOCK
__asm__ __volatile__ (
"lock incq %0;"
: "+m" (global),
"+g" (i) // to prevent loop unrolling
:
:
);
#else
__asm__ __volatile__ (
""
: "+g" (i) // to prevent he loop from being optimized to a single add
: "g" (global)
:
);
global++;
#endif
}
}
int main(int argc, char **argv) {
size_t nthreads;
if (argc > 1) {
nthreads = std::stoull(argv[1], NULL, 0);
} else {
nthreads = 2;
}
if (argc > 2) {
niters = std::stoull(argv[2], NULL, 0);
} else {
niters = 10;
}
std::vector<std::thread> threads(nthreads);
for (size_t i = 0; i < nthreads; ++i)
threads[i] = std::thread(threadMain);
for (size_t i = 0; i < nthreads; ++i)
threads[i].join();
uint64_t expect = nthreads * niters;
std::cout << "expect " << expect << std::endl;
std::cout << "global " << global << std::endl;
}
GitHub a monte .
Compilare, eseguire e disassemblare:
comon="-ggdb3 -O3 -std=c++11 -Wall -Wextra -pedantic main.cpp -pthread"
g++ -o main_fail.out $common
g++ -o main_std_atomic.out -DSTD_ATOMIC $common
g++ -o main_lock.out -DLOCK $common
./main_fail.out 4 100000
./main_std_atomic.out 4 100000
./main_lock.out 4 100000
gdb -batch -ex "disassemble threadMain" main_fail.out
gdb -batch -ex "disassemble threadMain" main_std_atomic.out
gdb -batch -ex "disassemble threadMain" main_lock.out
Uscita di condizioni di gara "errata" estremamente probabile per main_fail.out
:
expect 400000
global 100000
e deterministico "giusto" output degli altri:
expect 400000
global 400000
Smontaggio di main_fail.out
:
0x0000000000002780 <+0>: endbr64
0x0000000000002784 <+4>: mov 0x29b5(%rip),%rcx # 0x5140 <niters>
0x000000000000278b <+11>: test %rcx,%rcx
0x000000000000278e <+14>: je 0x27b4 <threadMain()+52>
0x0000000000002790 <+16>: mov 0x29a1(%rip),%rdx # 0x5138 <global>
0x0000000000002797 <+23>: xor %eax,%eax
0x0000000000002799 <+25>: nopl 0x0(%rax)
0x00000000000027a0 <+32>: add $0x1,%rax
0x00000000000027a4 <+36>: add $0x1,%rdx
0x00000000000027a8 <+40>: cmp %rcx,%rax
0x00000000000027ab <+43>: jb 0x27a0 <threadMain()+32>
0x00000000000027ad <+45>: mov %rdx,0x2984(%rip) # 0x5138 <global>
0x00000000000027b4 <+52>: retq
Smontaggio di main_std_atomic.out
:
0x0000000000002780 <+0>: endbr64
0x0000000000002784 <+4>: cmpq $0x0,0x29b4(%rip) # 0x5140 <niters>
0x000000000000278c <+12>: je 0x27a6 <threadMain()+38>
0x000000000000278e <+14>: xor %eax,%eax
0x0000000000002790 <+16>: lock addq $0x1,0x299f(%rip) # 0x5138 <global>
0x0000000000002799 <+25>: add $0x1,%rax
0x000000000000279d <+29>: cmp %rax,0x299c(%rip) # 0x5140 <niters>
0x00000000000027a4 <+36>: ja 0x2790 <threadMain()+16>
0x00000000000027a6 <+38>: retq
Smontaggio di main_lock.out
:
Dump of assembler code for function threadMain():
0x0000000000002780 <+0>: endbr64
0x0000000000002784 <+4>: cmpq $0x0,0x29b4(%rip) # 0x5140 <niters>
0x000000000000278c <+12>: je 0x27a5 <threadMain()+37>
0x000000000000278e <+14>: xor %eax,%eax
0x0000000000002790 <+16>: lock incq 0x29a0(%rip) # 0x5138 <global>
0x0000000000002798 <+24>: add $0x1,%rax
0x000000000000279c <+28>: cmp %rax,0x299d(%rip) # 0x5140 <niters>
0x00000000000027a3 <+35>: ja 0x2790 <threadMain()+16>
0x00000000000027a5 <+37>: retq
conclusioni:
la versione non atomica salva il globale in un registro e incrementa il registro.
Pertanto, alla fine, è molto probabile che quattro scritture tornino al globale con lo stesso valore "sbagliato" di 100000
.
std::atomic
compila a lock addq
. Il prefisso LOCK effettua il seguente inc
recupero, modifica e aggiornamento atomico della memoria.
il nostro prefisso LOCK di assembly inline esplicito viene compilato quasi allo stesso modo di std::atomic
, tranne per il fatto che inc
viene utilizzato invece di add
. Non so perché GCC abbia scelto add
, considerando che il nostro INC ha generato una decodifica di 1 byte più piccola.
ARMv8 potrebbe utilizzare LDAXR + STLXR o LDADD nelle CPU più recenti: come posso avviare i thread in C semplice?
Testato su Ubuntu 19.10 AMD64, GCC 9.2.1, Lenovo ThinkPad P51.
a.fetch_add(12)
se si desidera un RMW atomico.