Ich frage mich, ob es einen leichten, direkten Weg gibt, um Schleifen zu berechnen, beispielsweise für und Entfernungsbereiche für parallele Schleifen in C++. Wie würdest du so etwas umsetzen? Von Scala kenne ich die Karten-, Filter- und Foreach-Funktionen. Möglicherweise ist es auch möglich, diese parallel auszuführen. Gibt es eine einfache Möglichkeit, dies in C++ zu erreichen .. __ Meine primäre Plattform ist Linux, aber es wäre Nizza, wenn es plattformübergreifend funktioniert.
Was ist deine Plattform? Sie können OpenMP betrachten, obwohl es nicht Teil von C++ ist. Es wird jedoch weitgehend von Compilern unterstützt.
Für bereichsbasierte für Schleifen siehe z. B. Verwendung von OpenMP mit C++ 11 bereichsbasierten für Schleifen? .
Ich habe auch einige Dokumente unter http://www.open-std.org gesehen, die auf einige Bemühungen hinweisen, parallele Konstrukte/Algorithmen in zukünftiges C++ zu integrieren, wissen aber nicht, wie sie aktuell sind.
UPDATE
Fügen Sie einfach einen beispielhaften Code hinzu:
template <typename RAIter>
void loop_in_parallel(RAIter first, RAIter last) {
const size_t n = std::distance(first, last);
#pragma omp parallel for
for (size_t i = 0; i < n; i++) {
auto& elem = *(first + i);
// do whatever you want with elem
}
}
Die Anzahl der Threads kann zur Laufzeit über die Umgebungsvariable OMP_NUM_THREADS
eingestellt werden.
Mit den parallelen Algorithmen in C++ 17 können wir nun Folgendes verwenden:
std::vector<std::string> foo;
std::for_each(
std::execution::par_unseq,
foo.begin(),
foo.end(),
[](auto&& item)
{
//do stuff with item
});
schleifen parallel berechnen. Der erste Parameter gibt die Ausführungsrichtlinie an
std::async
kann hier gut passen, wenn Sie die C++
-Laufzeitumgebung über die Parallelität steuern lassen.
Beispiel aus dem cppreference.com:
#include <iostream>
#include <vector>
#include <algorithm>
#include <numeric>
#include <future>
template <typename RAIter>
int parallel_sum(RAIter beg, RAIter end)
{
auto len = end - beg;
if(len < 1000)
return std::accumulate(beg, end, 0);
RAIter mid = beg + len/2;
auto handle = std::async(std::launch::async,
parallel_sum<RAIter>, mid, end);
int sum = parallel_sum(beg, mid);
return sum + handle.get();
}
int main()
{
std::vector<int> v(10000, 1);
std::cout << "The sum is " << parallel_sum(v.begin(), v.end()) << '\n';
}
Mit C++ 11 können Sie eine for-Schleife mit nur wenigen Codezeilen parallelisieren. Dies teilt eine for-Schleife in kleinere Abschnitte auf und ordnet jede Teilschleife einem Thread zu:
/// Basically replacing:
void sequential_for(){
for(int i = 0; i < nb_elements; ++i)
computation(i);
}
/// By:
void threaded_for(){
parallel_for(nb_elements, [&](int start, int end){
for(int i = start; i < end; ++i)
computation(i);
} );
}
Oder in einer Klasse:
struct My_obj {
/// Replacing:
void sequential_for(){
for(int i = 0; i < nb_elements; ++i)
computation(i);
}
/// By:
void threaded_for(){
parallel_for(nb_elements, [this](int s, int e){ this->process_chunk(s, e); } );
}
void process_chunk(int start, int end)
{
for(int i = start; i < end; ++i)
computation(i);
}
};
Dazu müssen Sie nur den unten stehenden Code in eine Header-Datei einfügen und nach Belieben verwenden:
#include <algorithm>
#include <thread>
#include <functional>
#include <vector>
/// @param[in] nb_elements : size of your for loop
/// @param[in] functor(start, end) :
/// your function processing a sub chunk of the for loop.
/// "start" is the first index to process (included) until the index "end"
/// (excluded)
/// @code
/// for(int i = start; i < end; ++i)
/// computation(i);
/// @endcode
/// @param use_threads : enable / disable threads.
///
///
static
void parallel_for(unsigned nb_elements,
std::function<void (int start, int end)> functor,
bool use_threads = true)
{
// -------
unsigned nb_threads_hint = std::thread::hardware_concurrency();
unsigned nb_threads = nb_threads_hint == 0 ? 8 : (nb_threads_hint);
unsigned batch_size = nb_elements / nb_threads;
unsigned batch_remainder = nb_elements % nb_threads;
std::vector< std::thread > my_threads(nb_threads);
if( use_threads )
{
// Multithread execution
for(unsigned i = 0; i < nb_threads; ++i)
{
int start = i * batch_size;
my_threads[i] = std::thread(functor, start, start+batch_size);
}
}
else
{
// Single thread execution (for easy debugging)
for(unsigned i = 0; i < nb_threads; ++i){
int start = i * batch_size;
functor( start, start+batch_size );
}
}
// Deform the elements left
int start = nb_threads * batch_size;
functor( start, start+batch_remainder);
// Wait for the other thread to finish their task
if( use_threads )
std::for_each(my_threads.begin(), my_threads.end(), std::mem_fn(&std::thread::join));
}
Zuletzt könnten Sie ein Makro definieren, um einen noch kompakteren Ausdruck zu erhalten:
#define PARALLEL_FOR_BEGIN(nb_elements) tbx::parallel_for(nb_elements, [&](int start, int end){ for(int i = start; i < end; ++i)
#define PARALLEL_FOR_END()})
TBX_PARALLEL_FOR_BEGIN(nb_edges)
{
computation(i);
}TBX_PARALLEL_FOR_END();
Dies kann mit der threads
-spezifischen pthreads
-Bibliotheksfunktion durchgeführt werden, mit der Operationen gleichzeitig ausgeführt werden können.
Weitere Informationen hierzu finden Sie hier: http://www.tutorialspoint.com/cplusplus/cpp_multithreading.htm
std :: thread kann auch verwendet werden: http://www.cplusplus.com/reference/thread/thread/
Unten ist ein Code, in dem ich die Thread-ID jedes Threads verwende, um das Array in zwei Hälften zu teilen:
#include <iostream>
#include <cstdlib>
#include <pthread.h>
using namespace std;
#define NUM_THREADS 2
int arr[10] = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9};
void *splitLoop(void *threadid)
{
long tid;
tid = (long)threadid;
//cout << "Hello World! Thread ID, " << tid << endl;
int start = (tid * 5);
int end = start + 5;
for(int i = start;i < end;i++){
cout << arr[i] << " ";
}
cout << endl;
pthread_exit(NULL);
}
int main ()
{
pthread_t threads[NUM_THREADS];
int rc;
int i;
for( i=0; i < NUM_THREADS; i++ ){
cout << "main() : creating thread, " << i << endl;
rc = pthread_create(&threads[i], NULL,
splitLoop, (void *)i);
if (rc){
cout << "Error:unable to create thread," << rc << endl;
exit(-1);
}
}
pthread_exit(NULL);
}
Denken Sie auch daran, dass Sie beim Kompilieren das Flag -lpthread
verwenden müssen.
Link zur Lösung auf Ideone: http://ideone.com/KcsW4P
Die Concurrency :: parallel_for (PPL) ist auch eine der Optionen von Nizza, um Aufgabenparallelität auszuführen.
Genommen aus C++ - Codierungsübung - parallel für - Monte Carlo PI-Berechnung
int main() {
srand(time(NULL)); // seed
const int N1 = 1000;
const int N2 = 100000;
int n = 0;
int c = 0;
Concurrency::critical_section cs;
// it is better that N2 >> N1 for better performance
Concurrency::parallel_for(0, N1, [&](int i) {
int t = monte_carlo_count_pi(N2);
cs.lock(); // race condition
n += N2; // total sampling points
c += t; // points fall in the circle
cs.unlock();
});
cout < < "pi ~= " << setprecision(9) << (double)c / n * 4.0 << endl;
return 0;
}