Main.c 22.3 KB
Newer Older
1
2
3
#include <stdio.h>
#include <stdlib.h>
#include <mpi.h>
iker_martin's avatar
iker_martin committed
4
#include <fcntl.h>
5
#include <unistd.h>
iker_martin's avatar
iker_martin committed
6
#include <sys/stat.h>
7
#include "computing_func.h"
8
9
10
11
12
13
//#include "../IOcodes/read_ini.h"
//#include "../IOcodes/results.h"
//#include "../malleability/ProcessDist.h"
#include "../malleability/CommDist.h" //TODO Refactor para que no haga falta
#include "../malleability/malleabilityManager.h"
#include "../malleability/malleabilityStates.h"
14
15
16

#define ROOT 0

iker_martin's avatar
iker_martin committed
17
int work();
18
/*void Sons_init();
iker_martin's avatar
iker_martin committed
19

20
int checkpoint(int iter, int state, MPI_Request **comm_req);
21
int TC(int numS, int comm_type);
22
int start_redistribution(int iter, int numS, MPI_Request **comm_req);
23
int check_redistribution(int iter, MPI_Request **comm_req);
24
25
26
int end_redistribution(int iter);

int thread_creation();
27
int thread_check(int iter);
28
void* thread_async_work(void* void_arg);
29
*/
30
void iterate(double *matrix, int n, int async_comm);
31

32
void init_group_struct(char *argv[], int argc, int myId, int numP);
33
void init_application();
34
void obtain_op_times();
35
36
void free_application_data();

37
void print_general_info(int myId, int grp, int numP);
38
int print_final_results();
iker_martin's avatar
iker_martin committed
39
int create_out_file(char *nombre, int *ptr, int newstdout);
40

iker_martin's avatar
iker_martin committed
41
42
43
44
typedef struct {
  int myId;
  int numP;
  int grp;
45
  int iter_start;
46
  int argc;
iker_martin's avatar
iker_martin committed
47

48
  int numS; // Cantidad de procesos hijos
iker_martin's avatar
iker_martin committed
49
  MPI_Comm children, parents;
50
51

  char *compute_comm_array;
iker_martin's avatar
iker_martin committed
52
  char **argv;
53
  char *sync_array, *async_array;
iker_martin's avatar
iker_martin committed
54
55
56
57
} group_data;

configuration *config_file;
group_data *group;
58
results_data *results;
59
int run_id = 0; // Utilizado para diferenciar más fácilmente ejecuciones en el análisis
60

61
int main(int argc, char *argv[]) {
62
    int numP, myId, res;
iker_martin's avatar
iker_martin committed
63
    int req;
64
    int im_child;
65

66
    MPI_Init_thread(&argc, &argv, MPI_THREAD_MULTIPLE, &req);
67
    MPI_Comm_size(MPI_COMM_WORLD, &numP);
iker_martin's avatar
iker_martin committed
68
69
    MPI_Comm_rank(MPI_COMM_WORLD, &myId);

70
71
72
73
    if(req != MPI_THREAD_MULTIPLE) {
      printf("No se ha obtenido la configuración de hilos necesaria\nSolicitada %d -- Devuelta %d\n", req, MPI_THREAD_MULTIPLE);
    }

74
    init_group_struct(argv, argc, myId, numP);
75
    im_child = init_malleability(myId, numP, ROOT, MPI_COMM_WORLD, argv[0]);
76

77
    if(!im_child) {
78
79
      init_application();

80
      set_benchmark_grp(group->grp);
81
82
83
      set_benchmark_configuration(config_file);
      set_benchmark_results(results);

84
85
      MPI_Barrier(MPI_COMM_WORLD);
      results->exec_start = MPI_Wtime();
86
87
88
89
    } else {
      get_benchmark_configuration(&config_file); //No se obtiene bien el archivo
      get_benchmark_results(&results); //No se obtiene bien el archivo
      set_results_post_reconfig(results, group->grp, config_file->sdr, config_file->adr);
90

91
92
93
      if(config_file->comm_tam) {
        group->compute_comm_array = malloc(config_file->comm_tam * sizeof(char));
      }
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108

      int entries;
      void *value = NULL;

      malleability_get_entries(&entries, 1, 1);

      malleability_get_data(&value, 0, 1, 1);
      group->grp = *((int *)value);
      free(value);
      malleability_get_data(&value, 1, 1, 1);
      run_id = *((int *)value);
      free(value);

      group->grp = group->grp + 1;
      set_benchmark_grp(group->grp);
109
110
    }

111
    if(config_file->resizes != group->grp + 1) { 
112
113
114
      int spawn_type = COMM_SPAWN_SERIAL; // TODO Pasar a CONFIG
      set_malleability_configuration(spawn_type, config_file->phy_dist[group->grp+1], -1, config_file->aib, -1);
      set_children_number(config_file->procs[group->grp+1]); // TODO TO BE DEPRECATED
115
116
117
118
119

      if(group->grp == 0) {
        malleability_add_data(&(group->grp), 1, MAL_INT, 1, 1);
        malleability_add_data(&run_id, 1, MAL_INT, 1, 1);
      }
120
    }
121

122
    res = work();
123

124
125
126
    if(res) { // Se he llegado al final de la aplicacion
      MPI_Barrier(MPI_COMM_WORLD);
      results->exec_time = MPI_Wtime() - results->exec_start;
127
    }
128

129
    print_final_results(); // Pasado este punto ya no pueden escribir los procesos
130
    MPI_Finalize();
131
    free_application_data();
132

133
134
135
136
    return 0;
}

/*
137
138
139
140
141
142
143
144
145
 * Función de trabajo principal.
 *
 * Incializa los datos para realizar el computo y a continuacion
 * pasa a realizar "maxiter" iteraciones de computo.
 *
 * Terminadas las iteraciones realiza el redimensionado de procesos.
 * Si el redimensionado se realiza de forma asincrona se 
 * siguen realizando iteraciones de computo hasta que termine la 
 * comunicacion asincrona y realizar entonces la sincrona.
146
147
148
149
 *
 * Si el grupo de procesos es el ultimo que va a ejecutar, se devuelve
 * el valor 1 para indicar que no se va a seguir trabajando con nuevos grupos
 * de procesos. En caso contrario se devuelve 0.
150
 */
iker_martin's avatar
iker_martin committed
151
int work() {
152
  int iter, maxiter, state, res;
153
  double *matrix = NULL;
154

iker_martin's avatar
iker_martin committed
155
  maxiter = config_file->iters[group->grp];
156
  //initMatrix(&matrix, config_file->matrix_tam);
157
  state = MAL_NOT_STARTED;
iker_martin's avatar
iker_martin committed
158

159
  res = 0;
160
  for(iter=group->iter_start; iter < maxiter; iter++) {
161
    iterate(matrix, config_file->matrix_tam, state);
162
  }
163
164
165
  if(config_file->iters[group->grp] == iter && config_file->resizes != group->grp + 1)
    state = malleability_checkpoint();

166
  iter = 0;
167
  while(state == MAL_DIST_PENDING || state == MAL_SPAWN_PENDING) {
168
    iterate(matrix, config_file->matrix_tam, state);
169
    iter++;
170
    state = malleability_checkpoint();
171
  }
172
  
173
174
  if(config_file->resizes - 1 == group->grp) res=1;
  return res;
175
176
}

177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359

/////////////////////////////////////////
/////////////////////////////////////////
//COMPUTE FUNCTIONS
/////////////////////////////////////////
/////////////////////////////////////////


/*
 * Simula la ejecucción de una iteración de computo en la aplicación
 * que dura al menos un tiempo de "time" segundos.
 */
void iterate(double *matrix, int n, int async_comm) {
  double start_time, actual_time;
  double time = config_file->general_time * config_file->factors[group->grp];
  double Top = config_file->Top;
  int i, operations = 0;
  double aux = 0;

  start_time = actual_time = MPI_Wtime();

  operations = time / Top; //FIXME Calcular una sola vez
  for(i=0; i < operations; i++) {
    aux += computePiSerial(n);
  }

  if(config_file->comm_tam) {
    MPI_Bcast(group->compute_comm_array, config_file->comm_tam, MPI_CHAR, ROOT, MPI_COMM_WORLD);
  }

  actual_time = MPI_Wtime(); // Guardar tiempos
  // TODO Que diferencie entre ambas en el IO
  if(async_comm == MAL_DIST_PENDING || async_comm == MAL_SPAWN_PENDING) { // Se esta realizando una redistribucion de datos asincrona
    operations=0;
  }

  if(results->iter_index == results->iters_size) { // Aumentar tamaño de ambos vectores de resultados
    realloc_results_iters(results, results->iters_size + 100);
  }
  results->iters_time[results->iter_index] = actual_time - start_time;
  results->iters_type[results->iter_index] = operations;
  results->iter_index = results->iter_index + 1;
}

//======================================================||
//======================================================||
//=============INIT/FREE/PRINT FUNCTIONS================||
//======================================================||
//======================================================||

/*
 * Muestra datos generales sobre los procesos, su grupo,
 * en que nodo residen y la version de MPI utilizada.
 */
void print_general_info(int myId, int grp, int numP) {
  int len;
  char *name = malloc(MPI_MAX_PROCESSOR_NAME * sizeof(char));
  char *version = malloc(MPI_MAX_LIBRARY_VERSION_STRING * sizeof(char));
  MPI_Get_processor_name(name, &len);
  MPI_Get_library_version(version, &len);
  printf("P%d Nuevo GRUPO %d de %d procs en nodo %s con %s\n", myId, grp, numP, name, version);

  free(name);
  free(version);
}

/*
 * Pide al proceso raiz imprimir los datos sobre las iteraciones realizadas por el grupo de procesos.
 *
 * Si es el ultimo grupo de procesos, muestra los datos obtenidos de tiempo de ejecucion, creacion de procesos
 * y las comunicaciones.
 */
int print_final_results() {
  int ptr_local, ptr_global, err;
  char *file_name;

  if(group->myId == ROOT) {
    file_name = NULL;
    file_name = malloc(40 * sizeof(char));
    if(file_name == NULL) return -1; // No ha sido posible alojar la memoria
    err = snprintf(file_name, 40, "R%d_G%dNP%dID%d.out", run_id, group->grp, group->numP, group->myId);
    if(err < 0) return -2; // No ha sido posible obtener el nombre de fichero
    create_out_file(file_name, &ptr_local, 1);
  
    print_config_group(config_file, group->grp);
    print_iter_results(*results, config_file->iters[group->grp] -1);
    free(file_name);

    if(group->grp == config_file->resizes -1) {
      file_name = NULL;
      file_name = malloc(20 * sizeof(char));
      if(file_name == NULL) return -1; // No ha sido posible alojar la memoria
      err = snprintf(file_name, 20, "R%d_Global.out", run_id);
      if(err < 0) return -2; // No ha sido posible obtener el nombre de fichero

      create_out_file(file_name, &ptr_global, 1);
      print_config(config_file, group->grp);
      print_global_results(*results, config_file->resizes);
      free(file_name);
      
    }
  }
  return 0;
}

/*
 * Inicializa la estructura group
 */
void init_group_struct(char *argv[], int argc, int myId, int numP) {
  group = malloc(1 * sizeof(group_data));
  group->myId        = myId;
  group->numP        = numP;
  group->grp         = 0;
  group->iter_start  = 0;
  group->argc        = argc;
  group->argv        = argv;
}

/*
 * Inicializa los datos para este grupo de procesos.
 *
 * En caso de ser el primer grupo de procesos, lee el fichero de configuracion
 * e inicializa los vectores de comunicacion.
 *
 * En caso de ser otro grupo de procesos entra a la funcion "Sons_init()" donde
 * se comunican con los padres para inicializar sus datos.
 */
void init_application() {
  if(group->argc < 2) {
    printf("Falta el fichero de configuracion. Uso:\n./programa config.ini id\nEl argumento numerico id es opcional\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
  }
  if(group->argc > 2) {
    run_id = atoi(group->argv[2]);
  }

  config_file = read_ini_file(group->argv[1]);
  results = malloc(sizeof(results_data));
  init_results_data(results, config_file->resizes, config_file->iters[group->grp]);
  if(config_file->comm_tam) {
    group->compute_comm_array = malloc(config_file->comm_tam * sizeof(char));
  }
  if(config_file->sdr) {
    malloc_comm_array(&(group->sync_array), config_file->sdr , group->myId, group->numP);
  }
  if(config_file->adr) {
    malloc_comm_array(&(group->async_array), config_file->adr , group->myId, group->numP);
  }
   
  obtain_op_times();
}

/*
 * Obtiene cuanto tiempo es necesario para realizar una operacion de PI
 */
void obtain_op_times() {
  double result, start_time = MPI_Wtime();
  int i, qty = 20000;
  result = 0;
  for(i=0; i<qty; i++) {
    result += computePiSerial(config_file->matrix_tam);
  }
  //printf("Creado Top con valor %lf\n", result);
  //fflush(stdout);

  config_file->Top = (MPI_Wtime() - start_time) / qty; //Tiempo de una operacion
  MPI_Bcast(&(config_file->Top), 1, MPI_DOUBLE, ROOT, MPI_COMM_WORLD); 
}

/*
 * Libera toda la memoria asociada con la aplicacion
 */
void free_application_data() {
  if(config_file->comm_tam) {
    free(group->compute_comm_array);
  }
  if(config_file->sdr) {
    free(group->sync_array);
  }
  if(config_file->adr) {
    free(group->async_array);
  }
  
360
361
362
  free_malleability();
  free_config(config_file);

363
  if(group->grp == 0) { //FIXME Revisar porque cuando es diferente a 0 no funciona
364
    free_results_data(results);
365
    free(results);
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
  }
  free(group);

}


/* 
 * Función para crear un fichero con el nombre pasado como argumento.
 * Si el nombre ya existe, se escribe la informacion a continuacion.
 *
 * El proceso que llama a la función pasa a tener como salida estandar
 * dicho fichero si el valor "newstdout" es verdadero.
 *
 */
int create_out_file(char *nombre, int *ptr, int newstdout) {
  int err;

  *ptr = open(nombre, O_WRONLY | O_CREAT | O_APPEND, 0644);
  if(*ptr < 0) return -1; // No ha sido posible crear el fichero

  if(newstdout) {
    err = close(1);
    if(err < 0) return -2; // No es posible modificar la salida estandar
    err = dup(*ptr);
    if(err < 0) return -3; // No es posible modificar la salida estandar
  }

  return 0;
}




399
400
401
402
403
404
405
406
/*
 * Se realiza el redimensionado de procesos por parte de los padres.
 *
 * Se crean los nuevos procesos con la distribucion fisica elegida y
 * a continuacion se transmite la informacion a los mismos.
 *
 * Si hay datos asincronos a transmitir, primero se comienza a
 * transmitir estos y se termina la funcion. Se tiene que comprobar con
407
 * llamando a la función de nuevo que se han terminado de enviar
408
409
410
411
412
413
 *
 * Si hay ademas datos sincronos a enviar, no se envian aun.
 *
 * Si solo hay datos sincronos se envian tras la creacion de los procesos
 * y finalmente se desconectan los dos grupos de procesos.
 */
414
/*
415
416
417
418
int checkpoint(int iter, int state, MPI_Request **comm_req) {
  
  if(state == MAL_COMM_UNINITIALIZED) {
    // Comprobar si se tiene que realizar un redimensionado
419
    //if(config_file->iters[group->grp] > iter || config_file->resizes == group->grp + 1) {return MAL_COMM_UNINITIALIZED;}
420

421
    group->numS = config_file->procs[group->grp +1];
422
    int comm_type = COMM_SPAWN_SERIAL; // TODO Pasar a CONFIG
423

424
425
426
    state = TC(group->numS, comm_type);

    if (state == COMM_FINISHED){
427
      state = start_redistribution(0, group->numS, comm_req);
428
429
430
    }

  } else if(state == COMM_IN_PROGRESS) { // Comprueba si el spawn ha terminado y comienza la redistribucion
431
    state = check_slurm_comm(group->myId, ROOT, group->numP, &(group->children));
432

433
434
    if (state == COMM_FINISHED) {  
        results->spawn_time[group->grp] = MPI_Wtime() - results->spawn_start;
435
      state = start_redistribution(iter, group->numS, comm_req);
436
    }
437

438
  } else if(state == MAL_ASYNC_PENDING) {
439
440
441
442
443
    if(config_file->aib == MAL_USE_THREAD) {
      state = thread_check(iter);
    } else {
      state = check_redistribution(iter, comm_req);
    }
444
  }
iker_martin's avatar
iker_martin committed
445

446
447
  return state;
}
448
*/
449
450
/*
 * Se encarga de realizar la creacion de los procesos hijos.
451
 * Si se pide en segundo plano devuelve el estado actual.
452
 */
453
/*
454
int TC(int numS, int comm_type){
455
456
  // Inicialización de la comunicación con SLURM
  int dist = config_file->phy_dist[group->grp +1];
457
  int comm_state;
458
  MPI_Comm *new_comm = malloc(sizeof(MPI_Comm));
iker_martin's avatar
iker_martin committed
459

460
      results->spawn_start = MPI_Wtime();
461
462
  MPI_Comm_dup(MPI_COMM_WORLD, new_comm);
  comm_state = init_slurm_comm(group->argv, group->myId, numS, ROOT, dist, comm_type, *new_comm, &(group->children));
463
464
  if(comm_type == COMM_SPAWN_SERIAL)
      results->spawn_time[group->grp] = MPI_Wtime() - results->spawn_start;
465
466
467
468
  else if(comm_type == COMM_SPAWN_PTHREAD) {
      results->spawn_thread_time[group->grp] = MPI_Wtime() - results->spawn_start;
      results->spawn_start = MPI_Wtime();
  }
469
  return comm_state;
470
}
471
*/
472
473
474
475
476
477
478
479
480
481
482
483
484
485
/*
 * Comienza la redistribucion de los datos con el nuevo grupo de procesos.
 *
 * Primero se envia la configuracion a utilizar al nuevo grupo de procesos y a continuacion
 * se realiza el envio asincrono y/o sincrono si lo hay.
 *
 * En caso de que haya comunicacion asincrona, se comienza y se termina la funcion 
 * indicando que se ha comenzado un envio asincrono.
 *
 * Si no hay comunicacion asincrono se pasa a realizar la sincrona si la hubiese.
 *
 * Finalmente se envian datos sobre los resultados a los hijos y se desconectan ambos
 * grupos de procesos.
 */
486
/*
487
int start_redistribution(int iter, int numS, MPI_Request **comm_req) {
iker_martin's avatar
iker_martin committed
488
489
490
491
492
  int rootBcast = MPI_PROC_NULL;
  if(group->myId == ROOT) rootBcast = MPI_ROOT;

  // Enviar a los hijos que grupo de procesos son
  MPI_Bcast(&(group->grp), 1, MPI_INT, rootBcast, group->children);
493
  MPI_Bcast(&run_id, 1, MPI_INT, rootBcast, group->children);
iker_martin's avatar
iker_martin committed
494
495
  send_config_file(config_file, rootBcast, group->children);

496
  if(config_file->adr > 0) {
497
    results->async_start = MPI_Wtime();
498
499
500
501
502
503
    if(config_file->aib == MAL_USE_THREAD) {
      return thread_creation();
    } else {
      send_async(group->async_array, config_file->adr, group->myId, group->numP, ROOT, group->children, group->numS, comm_req, config_file->aib);
      return MAL_ASYNC_PENDING;
    }
504
  } 
505
  return end_redistribution(iter);
506
}
507
*/
508
509
510
/*
 * Crea una hebra para ejecutar una comunicación en segundo plano.
 */
511
/*
512
513
514
515
516
int thread_creation() {
  if(pthread_create(&async_thread, NULL, thread_async_work, NULL)) {
    printf("Error al crear el hilo\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
    return -1;
iker_martin's avatar
iker_martin committed
517
  }
518
519
  return MAL_ASYNC_PENDING;
}
520
*/
521
522
523
524
525
526
/*
 * Comprobación por parte de una hebra maestra que indica
 * si una hebra esclava ha terminado su comunicación en segundo plano.
 *
 * El estado de la comunicación es devuelto al finalizar la función. 
 */
527
/*
528
int thread_check(int iter) {
529
  int all_completed = 0;
iker_martin's avatar
iker_martin committed
530

531
532
533
534
535
536
537
538
539
540
  // Comprueba que todos los hilos han terminado la distribucion (Mismo valor en commAsync)
  MPI_Allreduce(&group->commAsync, &all_completed, 1, MPI_INT, MPI_MAX, MPI_COMM_WORLD);
  if(all_completed != MAL_COMM_COMPLETED) return MAL_ASYNC_PENDING; // Continue only if asynchronous send has ended 

  if(pthread_join(async_thread, NULL)) {
    printf("Error al esperar al hilo\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
    return -2;
  } 
  return end_redistribution(iter);
541
}
542
*/
543
544
545
546
547
548
549
550
/*
 * Función ejecutada por una hebra.
 * Ejecuta una comunicación síncrona con los hijos que
 * para el usuario se puede considerar como en segundo plano.
 *
 * Cuando termina la comunicación la hebra maestra puede comprobarlo
 * por el valor "commAsync".
 */
551
/*
552
553
554
555
void* thread_async_work(void* void_arg) {
  send_sync(group->async_array, config_file->adr, group->myId, group->numP, ROOT, group->children, group->numS);
  group->commAsync = MAL_COMM_COMPLETED;
  pthread_exit(NULL);
iker_martin's avatar
iker_martin committed
556
}
557
*/
558
/*
559
 * @deprecated
560
561
562
563
564
565
566
 * Comprueba si la redistribucion asincrona ha terminado. 
 * Si no ha terminado la funcion termina indicandolo, en caso contrario,
 * se continua con la comunicacion sincrona, el envio de resultados y
 * se desconectan los grupos de procesos.
 *
 * Esta funcion permite dos modos de funcionamiento al comprobar si la
 * comunicacion asincrona ha terminado.
567
568
 * Si se utiliza el modo "MAL_USE_NORMAL" o "MAL_USE_POINT", se considera 
 * terminada cuando los padres terminan de enviar.
569
570
571
 * Si se utiliza el modo "MAL_USE_IBARRIER", se considera terminada cuando
 * los hijos han terminado de recibir.
 */
572
/*
573
int check_redistribution(int iter, MPI_Request **comm_req) {
574
  int completed, all_completed, test_err;
575
  MPI_Request *req_completed;
iker_martin's avatar
iker_martin committed
576

577
578
579
580
581
582
583
584
585
586
  if (config_file->aib == MAL_USE_POINT) {
    test_err = MPI_Testall(group->numS, *comm_req, &completed, MPI_STATUSES_IGNORE);
  } else {
    if(config_file->aib == MAL_USE_NORMAL) {
      req_completed = &(*comm_req)[0];
    } else if (config_file->aib == MAL_USE_IBARRIER) {
      req_completed = &(*comm_req)[1];
    }
    test_err = MPI_Test(req_completed, &completed, MPI_STATUS_IGNORE);
  }
587
 
588
  if (test_err != MPI_SUCCESS && test_err != MPI_ERR_PENDING) {
589
    printf("P%d aborting -- Test Async\n", group->myId);
590
591
592
593
    MPI_Abort(MPI_COMM_WORLD, test_err);
  }

  MPI_Allreduce(&completed, &all_completed, 1, MPI_INT, MPI_MIN, MPI_COMM_WORLD);
594
  if(!all_completed) return MAL_ASYNC_PENDING; // Continue only if asynchronous send has ended 
595
  
596
597
598

  if(config_file->aib == MAL_USE_IBARRIER) {
    MPI_Wait(&(*comm_req)[0], MPI_STATUS_IGNORE); // Indicar como completado el envio asincrono
599
    //Para la desconexión de ambos grupos de procesos es necesario indicar a MPI que esta comm
600
    //ha terminado, aunque solo se pueda llegar a este punto cuando ha terminado
601
  }
602
603
604
  free(*comm_req);
  return end_redistribution(iter);
}
605
*/
606
607
608
609
610
611
612
613
614

/*
 * Termina la redistribución de los datos con los hijos, comprobando
 * si se han realizado iteraciones con comunicaciones en segundo plano
 * y enviando cuantas iteraciones se han realizado a los hijos.
 *
 * Además se realizan las comunicaciones síncronas se las hay.
 * Finalmente termina enviando los datos temporales a los hijos.
 */ 
615
/*
616
617
618
619
int end_redistribution(int iter) {
  int rootBcast = MPI_PROC_NULL;
  if(group->myId == ROOT) rootBcast = MPI_ROOT;

620
  if(config_file->sdr > 0) { // Realizar envio sincrono
621
      results->sync_start = MPI_Wtime();
622
    send_sync(group->sync_array, config_file->sdr, group->myId, group->numP, ROOT, group->children, group->numS);
623
624
  }

625
  MPI_Bcast(&iter, 1, MPI_INT, rootBcast, group->children);
626
  send_results(results, rootBcast, config_file->resizes, group->children);
627
628
629
  // Desconectar intercomunicador con los hijos
  MPI_Comm_disconnect(&(group->children));
  return MAL_COMM_COMPLETED;
iker_martin's avatar
iker_martin committed
630
}
631
*/
632
633
634
635
636
637
/*
 * Inicializacion de los datos de los hijos.
 * En la misma se reciben datos de los padres: La configuracion
 * de la ejecucion a realizar; y los datos a recibir de los padres
 * ya sea de forma sincrona, asincrona o ambas.
 */
638
/*
iker_martin's avatar
iker_martin committed
639
640
641
642
void Sons_init() {

  // Enviar a los hijos que grupo de procesos son
  MPI_Bcast(&(group->grp), 1, MPI_INT, ROOT, group->parents);
643
  MPI_Bcast(&run_id, 1, MPI_INT, ROOT, group->parents);
iker_martin's avatar
iker_martin committed
644
645
646
647
  group->grp++;

  config_file = recv_config_file(ROOT, group->parents);
  int numP_parents = config_file->procs[group->grp -1];
648
649
  results = malloc(sizeof(results_data));
  init_results_data(results, config_file->resizes - 1, config_file->iters[group->grp]);
iker_martin's avatar
iker_martin committed
650

651
  if(config_file->adr) { // Recibir datos asincronos
652
653
654
655
656
657
    if(config_file->aib == MAL_USE_NORMAL || config_file->aib == MAL_USE_IBARRIER || config_file->aib == MAL_USE_POINT) {
      recv_async(&(group->async_array), config_file->adr, group->myId, group->numP, ROOT, group->parents, numP_parents, config_file->aib);
    } else if (config_file->aib == MAL_USE_THREAD) {
      recv_sync(&(group->async_array), config_file->adr, group->myId, group->numP, ROOT, group->parents, numP_parents);
    }

658
      results->async_end = MPI_Wtime();
659
  }
660
  if(config_file->sdr) { // Recibir datos sincronos
iker_martin's avatar
iker_martin committed
661
    recv_sync(&(group->sync_array), config_file->sdr, group->myId, group->numP, ROOT, group->parents, numP_parents);
662
    results->sync_end = MPI_Wtime();
iker_martin's avatar
iker_martin committed
663
  }
664
  MPI_Bcast(&(group->iter_start), 1, MPI_INT, ROOT, group->parents);
665
666
667

  // Guardar los resultados de esta transmision
  recv_results(results, ROOT, config_file->resizes, group->parents);
iker_martin's avatar
iker_martin committed
668
669
670
671

  // Desconectar intercomunicador con los hijos
  MPI_Comm_disconnect(&(group->parents));
}
672
*/