search
top

Définition de calcul

Le concept de calcul concerne l’art de calculer. Notre approche portera essentiellement sur le calcul numérique et la logique, c’est-à-dire, l’informatique. Il y a lieu de mentionner que le calcul renferme les savoirs scientifiques et les méthodes.
Ces systèmes automatisés d’information sont accessibles grâce à des instruments donnés qui ont été justement conçus à cette fin, à savoir les ordinateurs. D’ailleurs, l’expression calculateur numérique est synonyme d’ordinateur.

L’origine du calcul, d’après les experts, remonte depuis plus de trois cents ans, à l’époque des premières machineries consacrées aux tâches de calcul. En 1623, Wilhelm Schickard a inventé la première calculatrice mécanique.

Toutefois, ce n’est que dans les années 40 que sont apparus les ordinateurs capables de réaliser de multiples opérations (ne se limitant pas qu’aux calculs de type mathématique). L’usage massif et domestique de ces machines est assez récent (années 80), avec la production des ordinateurs personnels ou PC. La fin du XXe siècle, avec l’essor d’Internet, a donné un grand élan à tout ce qui est associé aux sciences du calcul.

Pour ce qu’il en est de la théorie du calcul, celle-ci est considérée comme une science centrée sur l’étude et la définition formelle des calculs. Pour cette discipline, le calcul est le produit d’une solution ou d’un résultat, en particulier au sens mathématique/arithmétique du concept, dans la mesure où il fait appel à un processus ou un algorithme.

Autrement dit, le calcul est la science qui étudie et qui systématise les instructions et les activités saisies dans une machine, tout en analysant les facteurs qui participent à ce processus parmi lesquels figurent les langages de programmation, lesquels permettent de générer toute une liste de données ordonnée et intelligible pour la machine.
Au cours du processus, deux types d’analyse ont lieu : une organique (les indications sont traduites en un langage accessible par l’ordinateur) et une fonctionnelle (l’information disponible dans le processus d’automatisation est recueillie).

Pour parler de calcul, il faut d’abord définir le concept d’algorithme. Un algorithme est un ensemble de démarches données qui se structurent dans le temps répondant à une liste de règles opératoires claires dont le but est de résoudre un problème énoncé particulier. Ces démarches doivent respecter certaines conditions: être définies (claires, détailler chacune des démarches nécessaires à suivre sans ambiguïtés), finies (les actions qui en font partie doivent pouvoir être achevées en toute logique et simplicité), disposer de zéro ou plusieurs entrées et d’une ou plusieurs sorties, et être effectives (n’employer rien que le nécessaire pour la résolution du problème, en faisant appel aux moindres ressources possibles tout en pouvant s’exécuter de façon efficace).

Le calcul est présent dans d’autres domaines tels que l’intelligence artificielle liée aux ordinateurs, le calcul graphique et de réseaux, les systèmes de bases de données, les mathématiques des ordinateurs et de nombreuses ingénieries rattachées à cette machine.

De nos jours, le développement du calcul et des technologies respectives permet d’élaborer toute sorte de documents, d’envoyer et de recevoir des courriels, de créer des dessins numériques, d’éditer des supports audio et d’imprimer des livres, pour ne citer que quelques exemples.

Nous retiendrons que la technologie employée dans le calcul est microélectronique avec des composants physiques (processeur, mémoire, etc.) et logiques (système opératif et logiciels).

top